设为首页 收藏本站
查看: 1655|回复: 0

[经验分享] kubernetes集群中使用ingress发布服务

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2018-9-15 13:20:49 | 显示全部楼层 |阅读模式
  当我们将kubernetes的应用部署完之后,就需要对外发布服务的访问地址。kubernetes 将服务发布到外部访问的方式主要有:
  LoadBlancer Service
  NodePort Service
  Ingress
  一、LoadBlancer Service
  LoadBlancer Service 是 kubernetes 深度结合云平台的一个组件;当使用 LoadBlancer Service 暴露服务时,实际上是通过向底层云平台申请创建一个负载均衡器来向外暴露服务;目前 GCE、AWS、阿里云等公有云都有针对LoadBlancer Service完整的解决方案。
  二、NodePort Service
  因为K8s 的rc具有副本控制能力, Pod如果出现意外情况会自动销毁并重建;因此Pod 的ip地址也会跟着变化。我们可以在service中定义nodeport,在每个节点上开起一个端口,然后转发到内部 Pod IP 上。这就是所谓的NodePort Service,实质上就是在每个 node 上暴露一个端口,然后将这个端口映射到某个具体的 service 来实现的。虽然每个 node 的端口有很多(0~65535),但是由于安全性和易用性,实际上可用的端口范围为:30000-32767。如果在service指定的nodeport超过了这个范围,则会报错如下:
  

The Service "nginx-test" is invalid: spec.ports[0].nodePort: Invalid value: 38888: provided port is not in the valid range. The range of valid ports is 30000-32767  

  采用这种方式存在着诸多不遍:
  1、首先端口数受限,使用此方式每一个node上都要开启相同的port
  2、如果最终的应用访问要使用域名访问,还得在应用前端放一个nginx做转发。
  又或者直接在k8s集群中使用deamonset方式部署nginx,将请求转发到集群内的pod上,这是个好想法,但每次新增或者修改服务,都要去修改nginx配置文件,然后平滑的重启nginx,无法做到服务的自动发现,也不是最终的解决方案。
  三、Ingress
  Ingress 是在kubernetes 1.2版本才出现的,通过 Ingress 用户可以实现使用 nginx 等开源的反向代理负载均衡器实现对外暴露服务。使用 Ingress 时一般会有三个组件:
  反向代理负载均衡器
  反向代理负载均衡器通常使用nginx,部署方式可以选择 Replication Controller、Deployment、DaemonSet 等
  Ingress Controller
  Ingress Controller 通过连接api server,获取 service以及pod的信息,当得到这些变化信息后,Ingress Controller 再结合Ingress 生成配置,更新反向代理负载均衡器,达到服务发现的目的。
  Ingress
  Ingress 简单理解就是个规则定义;其本质是根据rules规则来将对应的host访问请求转发到k8s后端的services。从而实现整体的服务发现和负载均衡。
  定义ingress前,必须先部署ingress controller ,以实现为所有后端的service 提供一个统一的入口。在ingress-controller的rc文件中定义了一个默认后端。所以在部署ingress controller前要先启动默认后端的pod,否则启动ingress-controller会不成功.
  下面我们来介绍在k8s 1.5.2集群环境中,通过配置ingress,发布前面配置好的dashboard和nginx服务
  1、默认后端的yaml文件
  

# cat default-backend.yaml  
apiVersion: extensions/v1beta1
  
kind: Deployment
  
metadata:
  name: default-http-backend
  labels:
  k8s-app: default-http-backend
  namespace: default
  
spec:
  replicas: 1
  template:
  metadata:
  labels:
  k8s-app: default-http-backend
  spec:
  terminationGracePeriodSeconds: 60
  containers:
  - name: default-http-backend
  # Any image is permissable as long as:
  # 1. It serves a 404 page at /
  # 2. It serves 200 on a /healthz endpoint
  image: docker.io/cdchen/defaultbackend:1.0
  livenessProbe:
  httpGet:
  path: /healthz
  port: 8080
  scheme: HTTP
  initialDelaySeconds: 30
  timeoutSeconds: 5
  ports:
  - containerPort: 8080
  resources:
  limits:
  cpu: 10m
  memory: 20Mi
  requests:
  cpu: 10m
  memory: 20Mi
  
---
  
apiVersion: v1
  
kind: Service
  
metadata:
  name: default-http-backend
  namespace: default
  labels:
  k8s-app: default-http-backend
  
spec:
  ports:
  - port: 80
  targetPort: 8080
  selector:
  
k8s-app: default-http-backend
  

  2、ingress  ReplicationController的yaml文件
  

# cat nginx-ingress-controller.yaml  
apiVersion: v1
  
kind: ReplicationController
  
metadata:
  name: nginx-ingress-lb
  labels:
  name: nginx-ingress-lb
  namespace: default
  
spec:
  replicas: 1
  template:
  metadata:
  labels:
  name: nginx-ingress-lb
  annotations:
  prometheus.io/port: '10254'
  prometheus.io/scrape: 'true'
  spec:
  terminationGracePeriodSeconds: 60
  hostNetwork: true
  containers:
  - image: docker.io/cdchen/nginx-ingress-controller:0.9.0-beta.12
  name: nginx-ingress-lb
  readinessProbe:
  httpGet:
  path: /healthz
  port: 10254
  scheme: HTTP
  livenessProbe:
  httpGet:
  path: /healthz
  port: 10254
  scheme: HTTP
  initialDelaySeconds: 10
  timeoutSeconds: 1
  ports:
  - containerPort: 80
  hostPort: 80
  - containerPort: 443
  hostPort: 443
  env:
  - name: POD_NAME
  valueFrom:
  fieldRef:
  fieldPath: metadata.name
  - name: POD_NAMESPACE
  valueFrom:
  fieldRef:
  fieldPath: metadata.namespace
  - name: KUBERNETES_MASTER
  value: http://192.168.115.5:8080
  args:
  - /nginx-ingress-controller
  - --default-backend-service=$(POD_NAMESPACE)/default-http-backend
  - --apiserver-host=http://192.168.115.5:8080
  

  3、Dashboard 和 nginx的ingress yaml文件
  

# cat k8s-dashboard.yaml  
apiVersion: extensions/v1beta1
  
kind: Ingress
  
metadata:
  name: k8s-dashboard-ingress
  namespace: default
  
spec:
  rules:
  - host: k8s.webui
  http:
  paths:
  - path: /
  backend:
  serviceName: kubernetes-dashboard
  servicePort: 80
  

# cat k8s-nginx-test.yaml  
apiVersion: extensions/v1beta1
  
kind: Ingress
  
metadata:
  name: k8s-nginx-test
  namespace: default
  
spec:
  rules:
  - host: test.fjhb.cn
  http:
  paths:
  - path: /
  backend:
  serviceName: nginx-test
  servicePort: 80
  

  4、通过上述yaml文件创建对应的pod、rc及ingress
  

# kubectl get rc  
# kubectl get pod
  
# cd ingress/
  
# kubectl create -f .
  

DSC0000.jpg

  

# kubectl get pod  
# kubectl get ingress
  
# kubectl get rc
  

DSC0001.jpg

  5、访问测试
DSC0002.jpg

DSC0003.jpg

DSC0004.jpg

DSC0005.jpg

  也可以通过查看nginx-ingress-lb pod的日志来验证。
DSC0006.jpg




运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-583592-1-1.html 上篇帖子: 在kubernetes集群中部署efk-ylw6006 下篇帖子: 使用kubeadm部署kubernetes集群
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表