设为首页 收藏本站
查看: 2160|回复: 0

[经验分享] 使用kubernetes的deployment进行RollingUpdate

[复制链接]

尚未签到

发表于 2018-9-15 12:33:37 | 显示全部楼层 |阅读模式
  rolling update,可以使得服务近乎无缝地平滑升级,即在不停止对外服务的前提下完成应用的更新。
  Replication Controller为Kubernetes的一个核心内容,应用托管到Kubernetes之后,需要保证应用能够持续的运行,Replication Controller就是这个保证的key,主要的功能如下:

  •   确保pod数量:它会确保Kubernetes中有指定数量的Pod在运行。如果少于指定数量的pod,Replication Controller会创建新的,反之则会删除掉多余的以保证Pod数量不变。
  •   确保pod健康:当pod不健康,运行出错或者无法提供服务时,Replication Controller也会杀死不健康的pod,重新创建新的。
  •   弹性伸缩 :在业务高峰或者低峰期的时候,可以通过Replication Controller动态的调整pod的数量来提高资源的利用率。同时,配置相应的监控功能(Hroizontal Pod Autoscaler),会定时自动从监控平台获取Replication Controller关联pod的整体资源使用情况,做到自动伸缩。
  •   滚动升级:滚动升级为一种平滑的升级方式,通过逐步替换的策略,保证整体系统的稳定,在初始化升级的时候就可以及时发现和解决问题,避免问题不断扩大。
Deployment
  Deployment同样为Kubernetes的一个核心内容,主要职责同样是为了保证pod的数量和健康,90%的功能与Replication Controller完全一样,可以看做新一代的Replication Controller。但是,它又具备了Replication Controller之外的新特性:

  •   Replication Controller全部功能:Deployment继承了上面描述的Replication Controller全部功能。
  •   事件和状态查看:可以查看Deployment的升级详细进度和状态。
  •   回滚:当升级pod镜像或者相关参数的时候发现问题,可以使用回滚操作回滚到上一个稳定的版本或者指定的版本。
  •   版本记录: 每一次对Deployment的操作,都能保存下来,给予后续可能的回滚使用。
  •   暂停和启动:对于每一次升级,都能够随时暂停和启动。
      多种升级方案:Recreate:删除所有已存在的pod,重新创建新的; RollingUpdate:滚动升级,逐步替换的策略,同时滚动升级时,支持更多的附加参数,例如设置最大不可用pod数量,最小升级间隔时间等等。
    deployment的常用命令
查看部署状态
kubectl rollout status deployment/review-demo  --namespace=scm  
kubectl describe deployment/review-demo  --namespace=scm
  或者这种写法
kubectl rollout status deployments review-demo --namespace=scm  
kubectl describe deployments review-demo  --namespace=scm
升级
kubectl set image deployment/review-demo review-demo=library/review-demo:0.0.1 --namespace=scm  或者
kubectl edit deployment/review-demo --namespace=scm  编辑.spec.template.spec.containers[0].image的值
终止升级
kubectl rollout pause deployment/review-demo --namespace=scm继续升级
kubectl rollout resume deployment/review-demo --namespace=scm回滚
kubectl rollout undo deployment/review-demo --namespace=scm查看deployments版本
kubectl rollout history deployments --namespace=scm  回滚到指定版本
kubectl rollout undo deployment/review-demo --to-revision=2 --namespace=scm升级历史
  kubectl describe deployment/review-demo  --namespace=scm
  Name:     review-demo
  Namespace:    scm
  CreationTimestamp:  Tue, 31 Jan 2017 16:42:01 +0800
  Labels:     app=review-demo
  Selector:   app=review-demo
  Replicas:   3 updated | 3 total | 3 available | 0 unavailable
  StrategyType:   RollingUpdate
  MinReadySeconds:  0
  RollingUpdateStrategy:  1 max unavailable, 1 max surge
  OldReplicaSets:   
  NewReplicaSet:    review-demo-2741031620 (3/3 replicas created)
  Events: FirstSeen LastSeen  Count From        SubobjectPath Type    Reason      Message
  --------- --------  ----- ----        ------------- --------  ------      -------
  1m    1m    1 {deployment-controller }    Normal    ScalingReplicaSet Scaled up replica set review-demo-2741031620 to 1
  1m    1m    1 {deployment-controller }    Normal    ScalingReplicaSet Scaled down replica set review-demo-1914295649 to 2
  1m    1m    1 {deployment-controller }    Normal    ScalingReplicaSet Scaled up replica set review-demo-2741031620 to 2
  1m    1m    1 {deployment-controller }    Normal    ScalingReplicaSet Scaled down replica set review-demo-1914295649 to 1
  1m    1m    1 {deployment-controller }    Normal    ScalingReplicaSet Scaled up replica set review-demo-2741031620 to 3
  1m    1m    1 {deployment-controller }    Normal    ScalingReplicaSet Scaled down replica set review-demo-1914295649 to 0
deployment文件
  apiVersion: extensions/v1beta1
  kind: Deployment
  metadata:
  name: review-demo
  namespace: scm
  labels:
  app: review-demo
  spec:
  replicas: 3
  #  minReadySeconds: 60     #滚动升级时60s后认为该pod就绪
  strategy:
  rollingUpdate:  ##由于replicas为3,则整个升级,pod个数在2-4个之间
  maxSurge: 1      #滚动升级时会先启动1个pod
  maxUnavailable: 1 #滚动升级时允许的最大Unavailable的pod个数
  template:
  metadata:
  labels:
  app: review-demo
  spec:
  terminationGracePeriodSeconds: 60 ##k8s将会给应用发送SIGTERM信号,可以用来正确、优雅地关闭应用,默认为30秒
  containers:
  - name: review-demo
  image: library/review-demo:0.0.1-SNAPSHOT
  imagePullPolicy: IfNotPresent
  livenessProbe: #kubernetes认为该pod是存活的,不存活则需要重启
  httpGet:
  path: /health
  port: 8080
  scheme: HTTP
  initialDelaySeconds: 60 ## equals to the maximum startup time of the application + couple of seconds
  timeoutSeconds: 5
  successThreshold: 1
  failureThreshold: 5

  resources:          # keep request = limit to keep this container in guaranteed>  requests:
  cpu: 50m
  memory: 200Mi
  limits:
  cpu: 500m
  memory: 500Mi
  env:
  - name: PROFILE
  value: "test"
  ports:
  - name: http
  containerPort: 8080
  几个重要参数说明
maxSurge与maxUnavailable
  maxSurge: 1 表示滚动升级时会先启动1个pod
  maxUnavailable: 1 表示滚动升级时允许的最大Unavailable的pod个数
  由于replicas为3,则整个升级,pod个数在2-4个之间
terminationGracePeriodSeconds
  k8s将会给应用发送SIGTERM信号,可以用来正确、优雅地关闭应用,默认为30秒。
  如果需要更优雅地关闭,则可以使用k8s提供的pre-stop lifecycle hook 的配置声明,将会在发送SIGTERM之前执行。
livenessProbe与readinessProbe
  livenessProbe是kubernetes认为该pod是存活的,不存在则需要kill掉,然后再新启动一个,以达到replicas指定的个数。
  readinessProbe是kubernetes认为该pod是启动成功的,这里根据每个应用的特性,自己去判断,可以执行command,也可以进行httpGet。比如对于使用java web服务的应用来说,并不是简单地说tomcat启动成功就可以对外提供服务的,还需要等待spring容器初始化,数据库连接连接上等等。对于spring boot应用,默认的actuator带有/health接口,可以用来进行启动成功的判断。
  其中readinessProbe.initialDelaySeconds可以设置为系统完全启动起来所需的最少时间,livenessProbe.initialDelaySeconds可以设置为系统完全启动起来所需的最大时间+若干秒。
  这几个参数配置好了之后,基本就可以实现近乎无缝地平滑升级了。对于使用服务发现的应用来说,readinessProbe可以去执行命令,去查看是否在服务发现里头应该注册成功了,才算成功。
  本文出自https://www.jianshu.com/p/6bc8e0ae65d1



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-583550-1-1.html 上篇帖子: 容器开启数据服务之旅系列(二):Kubernetes如何助力Spark大数据分析 下篇帖子: Kubernetes的deployment使用
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表