设为首页 收藏本站
查看: 1237|回复: 0

[经验分享] kubeernetes节点资源限制

[复制链接]

尚未签到

发表于 2018-1-6 17:08:20 | 显示全部楼层 |阅读模式
  实际应用中发现,部分节点性能不足,某些较大的服务如果跑在这些机器上。会很快消耗该机器的内存和cpu资源,如果用uptime看一下的就会发现负载特别高(合理的范围这个值应该等于cpu个数),高到一定值就会导致该节点挂了。
  比较好的方式是
  1:底层,采用性能高的服务器用openstack分出多个虚机,通过资源的自动伸缩,但是目前还没有这个条件。直接跑在低性能的裸机上。
  2:应用层,把大型服务重构成可以水平扩展的微服务,然后多个微服务分配在多个节点。
  由于上述短时间难以搞定,但是为了保证集群的健康,还有一种方式,就是当某台节点的资源达到一定值,自动清理应用,以node第一优先级。
  为了做更可靠的调度,尽量减少资源过量使用,kubernetes把主机的资源分为几个部分:
  ● Node Capacity:主机容量是一个固定值,是主机的实际的容量。
  ● System-Reserved:不属于kubernetes的进程占用的资源量。
  ● Kubelet Allocatable:可以被kubelet用来启动容器的资源量。
  ● Kube-Reserved:被kubernetes的组件占用的资源量,包括docker daemon,kubelet,kube-proxy等。
[Allocatable] = [Node Capacity] – [Kube-Reserved] – [System-Reserved]

  kubernetes调度器在调度Pod和kubelet在部署Pod做资源校验时都使用 Allocatable 资源量作为数据输入。
  可以在kubelet中设置系统保留资源来提高Node节点的稳定性。参数为 –system-reserved 和 –kube-reserved。
  vim /etc/systemd/system/kubelet.service.d/10-kubeadm.conf
  添加
  参数:
  1:设置预留系统服务的资源
  --system-reserved=cpu=200m,memory=1G
  2:设置预留给k8s组件的资源(主要组件)
  --kube-reserved=cpu=200m,memory=1G
  系统内存-system-reserved-kube-reserved 就是可以分配给pod的内存
  3:驱逐条件
  --eviction-hard=memory.available<500Mi,nodefs.available<1Gi,imagefs.available<100Gi
  4:最小驱逐
  --eviction-minimum-reclaim="memory.available=0Mi,nodefs.available=500Mi,imagefs.available=2Gi"
  5:节点状态更新时间
  --node-status-update-frequency =10s
  6:驱逐等待时间
  --eviction-pressure-transition-period=20s
  验证方案:
  1:设置--eviction-hard=memory.available<2Gi(建议设置25%,但是配置无法写百分)
  2:./memtester 6G
  free查看,内存使用已经超出设定的值
  3:约10秒后MemoryPressure状态变成True
  4:释放申请的内存后约10s后,MemoryPressure变回false(如果不设置node-status-update-frequency 会等5分钟才会变回False。设置了10秒,10秒内才会变回False)
  eviction-pressure-transition-period(default 5m0s)
  问题:被驱逐的pod 状态是The node was low on resource: memory.,无法自动删除,需要手动删除
  systemctl daemon-reload
  systemctl restart kubelet
  现有参数 新参数
  —image-gc-high-threshold —eviction-hard or eviction-soft
  —image-gc-low-threshold —eviction-minimum-reclaim
  —maximum-dead-containers 弃用
  —maximum-dead-containers-per-container 弃用
  —minimum-container-ttl-duration 弃用
  —low-diskspace-threshold-mb —eviction-hard or eviction-soft
  —outofdisk-transition-frequency —eviction-pressure-transition-period
  结论:
  4g1C 以上推荐:
  Environment="KUBELET_OTHER_ARGS=--pod-infra-container-image=wyun.io/google-containers/pause-amd64:3.0 --system-reserved=cpu=200m,memory=250Mi --kube-reserved=cpu=200m,memory=250Mi  --eviction-hard=memory.available<1Gi,nodefs.available<1Gi,imagefs.available<1Gi --eviction-minimum-reclaim=memory.available=500Mi,nodefs.available=500Mi,imagefs.available=1Gi --node-status-update-frequency=10s --eviction-pressure-transition-period=30s"
  ● Kubelet通过Eviction Signal来记录监控到的Node节点使用情况。
  ● Eviction Signal支持:memory.available, nodefs.available, nodefs.inodesFree, imagefs.available, imagefs.inodesFree。
  ● 通过设置Hard Eviction Thresholds和Soft Eviction Thresholds相关参数来触发Kubelet进行Evict Pods的操作。
  ● Evict Pods的时候根据Pod QoS和资源使用情况挑选Pods进行Kill。
  ● Kubelet通过eviction-pressure-transition-period防止Node Condition来回切换引起scheduler做出错误的调度决定。
  ● Kubelet通过--eviction-minimum-reclaim来保证每次进行资源回收后,Node的最少可用资源,以避免频繁被触发Evict Pods操作。

  ● 当Node Condition为MemoryPressure时,Scheduler不会调度新的QoS>  ● 当Node Condition为DiskPressure时,Scheduler不会调度任何新的Pods到该Node。
  测试:
  模拟增加内存
  stress   -i 1 --vm 1 --vm-bytes 2G
  or
  memtester
  查看状态:
  while true; do  kubectl describe node izbp1ijmrejjh7tz |grep MemoryPressure&& sleep 2; done
  while true; do free -h&& sleep 2; done
  问题:
  1:会在同一时间出现很多相同的pod Failed的状态(MemoryPressure)
  改变eviction-minimum-reclaim=memory.available=500M 设置的大一点

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-432285-1-1.html 上篇帖子: 惊喜!腾讯云豪掷660万代金券!助力直通硅谷创业大赛 下篇帖子: Spring 通过ApplicationContext主动获取bean
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表