设为首页 收藏本站
查看: 2737|回复: 0

[经验分享] 基于 CentOS 7 搭建kubernetes集群

[复制链接]

尚未签到

发表于 2017-11-9 12:52:44 | 显示全部楼层 |阅读模式
基于Centos7构建Kubernetes平台
一、实验环境
3台centos7的主机:
master  192.168.111.131部署etcd,kube-apiserver,kube-controller-manager,kube-scheduler 4个应用。
node01  192.168.111.130  部署docker,kubelet, kube-proxy  3个应用
node02  192.168.111.129  部署docker,kubelet, kube-proxy  3个应用
二、实验步骤
1. 修改主机名和ip,三个主机网卡均设置为桥接模式,能够联网。
2. 分别修改/etc/hosts文件:
Master配置
#vim   /etc/hosts
dfb247d8c8f9030af158b80bc925744c.png Node01
#scp  root@192.168.111.128:/etc/hosts   /etc/
Node02
#scp  root@192.168.111.128:/etc/hosts   /etc/
3. 三台均设置防火墙的默认区域为trusted。
edc7c7a738f8d14ccddc6e9e3e6d68ff.png


4. 三台均关闭selinux.
16ba9914cf30d9bd2c4c230190772897.png
5. 安装docker,并启动。因为master之后还需要做registry仓库,所以也需要安装docker.
#yum   install  -y  docker
6d0452b50002cb23ba7c252ebcfb2efd.png 6. 开启路由转发功能:
0161d2899f51f7d83b2aa3e03cd32c43.png
7、实现node01和node02之间容器互通。
1)node01和node02新建网桥,并固定网桥ip。
node01上操作:
删除网桥docker0,新建网桥kbr0:
2b64e2e20511279cdccdb0763a6348b0.png
新建网桥的配置文件:
e1bf0987bc4280d5f3681817a27b24ed.png
新建路由文件:route-eth0,eth0为node1上的网卡名。
045e9c72261ffc3bc8be0738f3567640.png
修改docker配置文件,添加-b=kbr0参数
7536fc560d9c7651dae4de5e517a8dfc.png reboot重启系统使网桥设置生效。
2)对node02做同样的设置:
新建网桥:
902c7272873851e9f4947cf44ee7c250.png
新建网桥配置文件:
#scp root@192.168.111.129:/etc/sysconfig/network-scripts/ifcfg-kbr0  /etc/sysconfig/network-scripts/
e444a1d8153fb2960b172cb94376b220.png
创建路由文件:
04dcf0b497c6e0963068bf46571a89ec.png
修改docker 配置文件:
#vim  /etc/sysconfig/docker
3fda716a39723b9a3f371e9db6b7e850.png 重启系统reboot.
3)系统启动之后,查看网卡信息和路由信息。
#ifconfig
423107baf316d4c890712cb519425e44.png f89d381183e623b7c2973c4aaab0e1e5.png 4)验证两个宿主机间容器的互通性:
node01上运行一个容器:
b4515d46dbd4bbab91735bbb122548bc.png node02上运行一个容器:
03624400d8d502816adc9f556ff6ec59.png 容器间互ping:
#docker   run   -it    docker.io/centos:centos6
# yum  install  -y  iputils        进入容器安装
7a48343bf4af234450f5292c0918faa1.png
#dcoker   run  -it    docker.io/centos:centos6
190ef4aa5c21c3b94e4b092357a3bf16.png
master上部署应用:
1、安装etcd.
b2ec6adccb7b54d00444701bfb8bec39.png
查看etcd配置文件:
3547be473cfe7605b646fa6b7fb7cca0.png
2、修改配置文件:
117b4cc2efc38c06753eb82eef6843fb.png 3、启动etcd服务:
44aafb9685afc5b045e900dbfdc2beb9.png 查看服务端口号:
7cbbdbf3aa69eb516490d5e9c12b22d7.png 4、部署k8s-master组件(apiserver+controller-manager+scheduler)
安装软件:
#yum  install  -y  kubernetes-master
65bdc1f6c20f9fb86af9c59439d7d0c9.png
查看配置文件:
9f6e50472f9b1cb019cff62546d2b6a0.png
5、修改配置文件:
#vim   /etc/kubernetes/config
f8160a12218c224b2557aa95d513e933.png 解释:
KUBE_LOGTOSTDERR  日志设置
KUBE_LOG_KEVEL     日志级别设置
KUBE_ALLOW_PRIV    是否允许运行特权容器
KUBE_MASTER       主节点的地址,主要为replication controller和scheduler及kubelet可以顺利找到apiserver
#vim  /etc/kubernetes/apiserver
f34a7f7536585e4053b5260459eaaa22.png KUBE_API_ADDRESS                   监听的接口,如果配置为127.0.0.1则只监听localhost,配置为0.0.0.0会监听所有接口,这里配置为0.0.0.0。
KUBE_API_PORT="--port=8080"           apiserver的监听端口,默认8080,不用修改。
KUBELET_PORT="--kubelet_port=10250"    kubelet监听的端口,默认10250,无需修改
KUBE_ETCD_SERVERS  //指定etcd节点的地址
KUBE_SERVICE_ADDRESSES               这个是设置今后运行Service所在的ip网段
KUBE_API_ARGS=”--secure-port=0”  默认是要求https安全通信,”--secure-port=0”则不要求https安全通信
注:这里需要注意原来KUBE_ADMISSION_CONTROL默认包含的要删掉,不然启动API server的时候会报错
6、启动服务:
5b8dd14a28f21aef29433d5e5d1f4eb8.png
查看服务端口:
63d2ba2c998cbfa73ba87301f2fe8d17.png 部署node主机:
1、安装kubernetes-node软件:
#yum  install  -y  kubernetes-node
cc37a364afc6bac7462120e9047dd1c4.png
2、修改配置文件:
#vim  /etc/kubernetes/config
960aba70e03939223e9a4bdb51eb7102.png
#vim  /etc/kubernetes/kubelet
4617ee2516c2d346177fcef4e549200c.png 配置项KUBELET_POD_INFRA_CONTAINER="--pod-infra-container-image=registry.access.redhat.com/rhel7/pod-infrastructure:latest"作用k8s创建pod的时候需要起一个基本容器,所以node节点要能连网。也可以自己搭建一个私有仓库,将pod-infrastructure:latest镜像上传到私有仓库中,修改此配置文件的地址就可以。
3、启动服务:
941a130a6a594b6f7fdf00339db79b30.png
4、在node02主机上重复上面的操作。
5、在master上检查node 状态:
fd645fb0fefffb94c2f567d49b8fd16a.png
383c21067ee0922d81304ac0976cfe63.png 建私有仓库:
Kubernetes管理容器如果是第一次操作,可能会有一定的等待时间,这是因为第一次下载images需要一段时间。如果本地没有docker registry,要确保节点能访问互联网,所以我们可以搭建一个私有仓库,由私有仓库提供所需要的镜像,
本实验环境中用kubernetes同时作为registry。
1、导入镜像:
0fb4f66daebd207bc5de445289b9af7a.png 2、基于私有仓库镜像运行容器
66b1d36919b589641fa594d6540523f4.png 3、本地访问私有仓库:

4、上传镜像到私有仓库。
导入之后用到的镜像到本地
a66732ae83ba48d1a6dd2df0d8093eb5.png 给基础镜像打个标签:
5e927423385cf9e78bd916e03e296181.png
在三台主机上均修改docker 的配置文件,指定私有仓库的url.
b43a7c89dfa67d28876f2235f5e6816d.png 重启docker服务:
906ca0c0e995e10ebce97bf663f4f4c2.png
上传镜像到私有仓库并查看:
022afb8d27f67af86fe6c5812ecce871.png 测试,下载刚才上传的镜像:
deb2b7a58019d98c7c9829ccfd2f45b2.png bac7fe1875675269eebb0b1d7392dea1.png 部署web应用
1、为了部署pod的时候,下载镜像速度快点,把node节点主机配置文件中的pod镜像下载地址修改为本地私有仓库地址:
#vim  /etc/kubernetes/kubelet
7c79026c79bda0eb2df7014d320e461c.png #systemctl  restart  kubelet.service
2、创建apache-rc.yaml文件,根据文件内容创建rc和pod。
859e50cb0790c2a919b501df31549f2f.png
注意:必须按照此格式编写否则会报错
#kubectl  create  -f apache-rc.yaml
error: error validating "apache-rc.yaml": error validating data: found invalid field spec for v1.ReplicationControllerSpec; if you choose to ignore these errors, turn validation off with --validate=false
8922902afa67688ccce834f574d00643.png
查看pods状态:
80f19fdbe81b01aec08306d69d9afd9d.png
查看pods详细状态:
18d8cc6694b9bee4754eac30b4d554f5.png 附:删除pod
kubectl delete pod podName
由于设置了两份副本,所以删除pod的时候,k8s会迅速起另外一个一模一样的pod以保持副本数量为2不变。
要彻底删除pod,只能删除创建它的replication controller
查看replication controller
kubectl get rc
删除replication controller
kubectl delete rc rcName
删除rc之后,其创建的pod会一并删除

3、部署节点内部可访问的apache service
Server的type有ClusterIP和 NodePort之分,缺省是ClusterIp,这种类型的service只能在集群内部访问
创建配置文件:
#vim  apache-service-clusterip.yaml
918b925883281d36b5503a062c820c8a.png
创建service:
b2555de5ee8b225ff258c6d9ada2a1eb.png
查看service状态:
928c44f47dc3015f42d1969c5bf498d4.png
验证apache服务:(在node节点执行)
d8f57ac4a6601bb5d896b09638e3d5dc.png
4、部署外部可访问的apache service。
创建nodeport类型的service . 这种类型的Service在集群外部是可以访问
#vim  apache-nodeport-service.yaml
ac10bb24a5849013e3c00de39e5cb1af.png
创建service:
716e73c2122df42822b97b9579994383.png
查看service:
c81450e7452d2a37414e9c5cdc5abf7c.png 验证service的可访问性:
外部访问:
a4786eb847c076cea79de58f367bad67.png dcfad9ef4b9b479aecf6eac2a7d02d79.png
内部访问:
92c7ae5dd5b86a6754d72cb94d5ad06d.png 到此为止kubernetes 集群搭建完毕!!!

a57508bd2557d3e92e3bb233c65e6abc.png

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-406807-1-1.html 上篇帖子: Kubernetes(K8S) v1.8之概念篇(最新版本) 下篇帖子: kubernetes 1.8 高可用安装(零)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表