设为首页 收藏本站
查看: 716|回复: 0

[经验分享] kubernets kube-proxy原理分析

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2017-3-3 11:20:53 | 显示全部楼层 |阅读模式
kube-proxy
service是一组pod的服务抽象,相当于一组pod的LB,负责将请求分发给对应的pod。service会为这个LB提供一个IP,一般称为cluster IP。
kube-proxy的作用主要是负责service的实现,具体来说,就是实现了内部从pod到service和外部的从node port向service的访问
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
cat nginx.yaml    部署该deploment
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name: apigw-test1
spec:
  replicas: 2
  template:
    metadata:
      labels:
        app: test1
    spec:
      #hostNetwork: true
      containers:
      - name: apigw1
        image: apigw:696
        imagePullPolicy: IfNotPresent
        ports:
        - containerPort: 80
        resources:
          requests:
            cpu: 2
            memory: 2Gi
          limits:
            cpu: 2
            memory: 2Gi




创建service
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
cat nginx-svc.yaml
apiVersion: v1
kind: Service
metadata:
  name: apigw-test1
  labels:
    app: test1
spec:
  type: NodePort
  selector:
    app: test1
  ports:
  - port: 6666
    targetPort: 80
    nodePort: 30066
     
kubectl create -f nginx-svc.yaml




前面创建了nginx的部署对象,那么别人如何使用nginx这个服务呢?首先要确定的是,这个nginx服务,是给内部使用的,还是外部。如果是内部使用,那就可以不用设置服务的类型(默认为ClusterIP),
否则,可以将服务类型设置为NodePort,通过node的端口暴露出来给外部使用;或者是LoadBalancer,由云服务商提供一个负载均衡直接挂在服务上。
这里我们使用NodePort,暴露出30066端口给外部使用。如果不指定nodePort,那么kubernetes会随机生成一个

这里我们用1个service+2个pod来举例说明
wKiom1i34aehpgpyAAFc7UJEH7E421.png

wKiom1i34dLgVmXfAAGhwT15uBA861.png
port和nodePort都是service的端口,前者暴露给集群内客户访问服务,后者暴露给集群外客户访问服务。从这两个端口到来的数据都需要经过反向代理kube-proxy流入后端pod的targetPod,从而到达pod上的容器内。


apigw-test1-2790435668-xkt56  ip:192.168.64.130/32
apigw-test1-2790435668-r69sr  ip:  192.168.83.197/32
wKiom1i34iyBE-ybAACTkI0u3zM181.png

整体流程图如下
wKioL1i34mORjg4UAABtclsTOeA836.png
-A KUBE-SVC-NPX46M4PTMTKRN6Y -m comment --comment "default/kubernetes:https" -m recent --rcheck --seconds 10800 --reap --name KUBE-SEP-FOCF455PUHPZHEKG --mask 255.255.255.255 --rsource -j KUBE-SEP-FOCF455PUHPZHEKG

实现了会话保持

-A KUBE-SEP-FOCF455PUHPZHEKG -p tcp -m comment --comment "default/kubernetes:https" -m recent --set --name KUBE-SEP-FOCF455PUHPZHEKG --mask 255.255.255.255 --rsource -m tcp -j DNAT --to-destination 172.16.18.124:6443

关键点解释:
KUBE-NODEPORTS   链跳转到如下两条链
1、KUBE-MARK-MASQ  --set-xmark 0x4000/0x4000  SANT
该链的作用主要是做数据标记,以及后续对这些标记的数据做SNAT
2、KUBE-SVC-4FIAYNHBEFBB6ATU  会跳转到如下两条链
2、1  KUBE-SEP-ZMVIR553ITG5JAPJ  (-m statistic --mode random --probability 0.50000000000)
该链主要两个做个 一个SANT  一个DNAT,请参考上图说明

2、2  KUBE-SEP-S6UNEDQPTOJETSJC  作用等同于2、1

服务配置了session affinity,则会产生如下的规则  

wKiom1i34s_jRuqzAAGSs-sDJQ4324.png

-m recent --rcheck --seconds 10800 --reap 实现了会话保持
来自于default/kubernetes:https这个服务,流经KUBE-SVC-NPX46M4PTMTKRN6Y这个链的数据包会跳转到自定义链KUBE-SEP-FOCF455PUHPZHEKG,且会在一段时间内保持session affinity,保持时间是10800秒


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-349677-1-1.html 上篇帖子: Telegraf + InfluxDB收集系统性能,Grafana图形展示 下篇帖子: centos6.5下安装ambari
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表