设为首页 收藏本站
查看: 668|回复: 0

[经验分享] centos7 k8s集群部署

[复制链接]

尚未签到

发表于 2018-4-19 14:47:14 | 显示全部楼层 |阅读模式
  安装k8s集群前期准备:
  网络环境:

节点
主机名
ip
Master
k8s_master
192.168.3.216
Node1
k8s_node1
192.168.3.217
Node2
k8s_node2
192.168.3.219  centos7版本:
    [iyunv@k8s_master ~]# cat /etc/redhat-release

    CentOS Linux>  关闭firewalld:
    systemctl stop firewalld
    systemctl disable firewalld
  三台主机基础服务安装:
    [iyunv@k8s_master ~]#yum -y update
    [iyunv@k8s_master ~]#yum -y install net-tools wget vim ntpd
    [iyunv@k8s_master ~]#systemctl enable ntpd
    [iyunv@k8s_master ~]#systemctl start ntpd
  分别在三台主机,设置主机名:
    Master
    hostnamectl --static set-hostname k8s_master
    Node1
    hostnamectl --static set-hostname k8s_client1
    Node2
    hostnamectl --static set-hostname k8s_client2
  设置hosts,分别再三台主机执行:
cat <<EOF > /etc/hosts
192.168.3.217 k8s_client1
192.168.3.219 k8s_client2
192.168.3.216 k8s_master
EOF  部署Master操作:
  &emsp;&emsp;安装etcd服务:
  &emsp;&emsp;[iyunv@k8s_master ~]# yum -y install etcd
  编辑配置文件 /etc/etcd/etcd.conf
  &emsp;&emsp;[iyunv@k8s_master ~]# cat /etc/etcd/etcd.conf | grep -v &quot;^#&quot;
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ETCD_LISTEN_CLIENT_URLS="http://0.0.0.0:2379,http://0.0.0.0:4001"
ETCD_NAME="master"
ETCD_ADVERTISE_CLIENT_URLS="http://k8s_master:2379,http://k8s_master:4001"  &emsp;&emsp;设置开机启动并验证状态
  &emsp;&emsp;[iyunv@k8s_master ~]#systemctl  enable etcd
  &emsp;&emsp;[iyunv@k8s_master ~]#systemctl start etcd
  &emsp;&emsp;etcd检查
  &emsp;&emsp;[iyunv@k8s_master ~]# etcdctl -C http://k8s_master:4001 cluster-health
  &emsp;&emsp;member 8e9e05c52164694d is healthy: got healthy result from http://k8s_master:2379
  &emsp;&emsp;cluster is healthy
  &emsp;&emsp;[iyunv@k8s_master ~]# etcdctl -C http://k8s_master:2379 cluster-health
  &emsp;&emsp;member 8e9e05c52164694d is healthy: got healthy result from http://k8s_master:2379
  &emsp;&emsp;cluster is healthy
  安装docker服务
  &emsp;&emsp;[iyunv@k8s_master ~]# yum -y install docker
  &emsp;&emsp;设置开机启动,开启服务:
  &emsp;&emsp;[iyunv@k8s_master ~]#systemctl  enable docker
  &emsp;&emsp;[iyunv@k8s_master ~]#systemctl start docker
  查看docker版本:
[iyunv@k8s_master ~]# docker version

  Client:
  Version:         1.12.6
  API version:     1.24
  Package version: docker-1.12.6-71.git3e8e77d.el7.centos.1.x86_64
  Go version:      go1.8.3
  Git commit:      3e8e77d/1.12.6
  Built:           Tue Jan 30 09:17:00 2018
  OS/Arch:         linux/amd64
  Server:
  Version:         1.12.6
  API version:     1.24
  Package version: docker-1.12.6-71.git3e8e77d.el7.centos.1.x86_64
  Go version:      go1.8.3
  Git commit:      3e8e77d/1.12.6
  Built:           Tue Jan 30 09:17:00 2018
  OS/Arch:         linux/amd64
  安装kubernetes
  &emsp;&emsp;[iyunv@k8s_master ~]# yum install kubernetes
  在kubernetes master上需要运行以下组件:
  Kubernets API Server
  Kubernets Controller Manager
  Kubernets Scheduler
  修改apiserver服务配置文件:
[iyunv@k8s_master ~]# cat /etc/kubernetes/apiserver | grep -v &quot;^#&quot;

KUBE_API_ADDRESS="--insecure-bind-address=0.0.0.0"
KUBE_API_PORT="--port=8080"
KUBE_ETCD_SERVERS="--etcd-servers=http://192.168.3.216:2379"
KUBE_SERVICE_ADDRESSES="--service-cluster-ip-range=10.254.0.0/16"
KUBE_ADMISSION_CONTROL="--admission-control=NamespaceLifecycle,NamespaceExists,LimitRanger,SecurityContextDeny,ServiceAccount,ResourceQuota"
KUBE_API_ARGS=""  修改config配置文件:
[iyunv@k8s_master ~]# cat /etc/kubernetes/config | grep -v &quot;^#&quot;

KUBE_LOGTOSTDERR="--logtostderr=true"
KUBE_LOG_LEVEL="--v=0"
KUBE_ALLOW_PRIV="--allow-privileged=false"
KUBE_MASTER="--master=http://192.168.3.216:8080"  设置开机启动,开启服务
  &emsp;&emsp;[iyunv@k8s_master ~]#systemctl  enable kube-apiserver kube-controller-manager kube-scheduler
  &emsp;&emsp;[iyunv@k8s_master ~]#systemctl  start kube-apiserver kube-controller-manager kube-scheduler
  查看服务端口:
[iyunv@k8s_master ~]# netstat -tnlp

Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address           Foreign Address         State       PID/Program name   
tcp        0      0 127.0.0.1:2380          0.0.0.0:*               LISTEN      973/etcd            
tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN      970/sshd            
tcp        0      0 127.0.0.1:25            0.0.0.0:*               LISTEN      1184/master         
tcp6       0      0 :::6443                 :::*                    LISTEN      1253/kube-apiserver
tcp6       0      0 :::2379                 :::*                    LISTEN      973/etcd            
tcp6       0      0 :::10251                :::*                    LISTEN      675/kube-scheduler  
tcp6       0      0 :::10252                :::*                    LISTEN      674/kube-controller
tcp6       0      0 :::8080                 :::*                    LISTEN      1253/kube-apiserver
tcp6       0      0 :::22                   :::*                    LISTEN      970/sshd            
tcp6       0      0 ::1:25                  :::*                    LISTEN      1184/master         
tcp6       0      0 :::4001                 :::*                    LISTEN      973/etcd   部署Node:
  安装docker
  &emsp;&emsp; 参考Master安装方法
  安装kubernetes
  &emsp;&emsp;参考Master安装方法
  配置、启动kubernetes
  &emsp;&emsp;node节点上需要运行一下组件
  &emsp;&emsp; kubelet    kube-proxy
  Node节点主机做以下配置:
  config:
[iyunv@k8s_client1 ~]# cat /etc/kubernetes/config | grep -v &quot;^#&quot;

KUBE_LOGTOSTDERR="--logtostderr=true"
KUBE_LOG_LEVEL="--v=0"
KUBE_ALLOW_PRIV="--allow-privileged=false"
KUBE_MASTER="--master=http://192.168.3.216:8080"
kubelet:
[iyunv@k8s_client1 ~]# cat /etc/kubernetes/kubelet | grep -v "^#"
KUBELET_ADDRESS="--address=0.0.0.0"
KUBELET_HOSTNAME="--hostname-override=192.168.3.217"
KUBELET_API_SERVER="--api-servers=http://192.168.3.216:8080"
KUBELET_POD_INFRA_CONTAINER="--pod-infra-container-image=registry.access.redhat.com/rhel7/pod-infrastructure:latest"
KUBELET_ARGS=""  设置开机启动、开启服务
  &emsp;&emsp;[iyunv@k8s_client1 ~]# systemctl enable kubelet kube-proxy
  &emsp;&emsp;[iyunv@k8s_client1 ~]# systemctl start kubelet kube-proxy
  查看端口:
[iyunv@k8s_client1 ~]# netstat -ntlp

Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address           Foreign Address         State       PID/Program name   
tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN      942/sshd            
tcp        0      0 127.0.0.1:25            0.0.0.0:*               LISTEN      2258/master         
tcp        0      0 127.0.0.1:10248         0.0.0.0:*               LISTEN      17932/kubelet      
tcp        0      0 127.0.0.1:10249         0.0.0.0:*               LISTEN      17728/kube-proxy   
tcp6       0      0 :::10250                :::*                    LISTEN      17932/kubelet      
tcp6       0      0 :::10255                :::*                    LISTEN      17932/kubelet      
tcp6       0      0 :::22                   :::*                    LISTEN      942/sshd            
tcp6       0      0 ::1:25                  :::*                    LISTEN      2258/master         
tcp6       0      0 :::4194                 :::*                    LISTEN      17932/kubelet  Master上查看集群中的节点及节点状态
  &emsp;&emsp;[iyunv@k8s_master ~]# kubectl get node
NAME            STATUS     AGE
127.0.0.1       NotReady   1d
192.168.3.217   Ready      1d
192.168.3.219   Ready      1d  &emsp;&emsp;[iyunv@k8s_master ~]# kubectl -s http://k8s_master:8080 get node
NAME            STATUS     AGE
127.0.0.1       NotReady   1d
192.168.3.217   Ready      1d
192.168.3.219   Ready      1d  kubernetes集群搭建完成,还需flannel安装
  flannel是CoreOS提供用于解决Dokcer集群跨主机通讯的覆盖网络工具。它的主要思路是:预先留出一个网段,每个主机使用其中一部分,然后每个容器被分配不同的ip;让所有的容器认为大家在同一个直连的网络,底层通过UDP/VxLAN等进行报文的封装和转发。
  Master/Node上flannel安装:
  &emsp;&emsp;[iyunv@k8s_master ~]#yum install flannel
  flannel配置:
  &emsp;&emsp;Master/Node上修改/etc/sysconfig/flanneld
  Master:
  &emsp;&emsp;[iyunv@k8s_master ~]# cat /etc/sysconfig/flanneld | grep -v &quot;^#&quot;
FLANNEL_ETCD_ENDPOINTS="http://192.168.3.216:2379"
FLANNEL_ETCD_PREFIX="/atomic.io/network"  Node:
  &emsp;&emsp;[iyunv@k8s_client1 ~]# cat /etc/sysconfig/flanneld | grep -v &quot;^#&quot;
FLANNEL_ETCD_ENDPOINTS="http://192.168.3.216:2379"
FLANNEL_ETCD_PREFIX="/atomic.io/network"  添加网络:
[iyunv@k8s_master ~]#etcdctl mk //atomic.io/network/config '{&quot;Network&quot;:&quot;172.8.0.0/16&quot;}'

  Master/Node设置服务开机启动
[iyunv@k8s_master ~]# systemctl enable flanneld

[iyunv@k8s_master ~]# systemctl start flanneld

  Master/Node节点重启服务:
  Master:
for SERVICES in docker kube-apiserver kube-controller-manager kube-scheduler; do systemctl restart $SERVICES ; done  Node:
  &emsp;&emsp;[iyunv@k8s_client1 ~]#systemctl restart kube-proxy kubelet docker
  查看flannel网络:
  &emsp;&emsp;Master节点:
[iyunv@k8s_master ~]# ip a

  1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
  link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
  inet 127.0.0.1/8 scope host lo
  valid_lft forever preferred_lft forever
  inet6 ::1/128 scope host
  valid_lft forever preferred_lft forever
  2: ens160: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
  link/ether 00:50:56:98:3b:d4 brd ff:ff:ff:ff:ff:ff
  inet 192.168.3.216/24 brd 192.168.3.255 scope global ens160
  valid_lft forever preferred_lft forever
  inet6 fe80::250:56ff:fe98:3bd4/64 scope link
  valid_lft forever preferred_lft forever
  3: flannel0: <POINTOPOINT,MULTICAST,NOARP,UP,LOWER_UP> mtu 1472 qdisc pfifo_fast state UNKNOWN qlen 500
  link/none
  inet 10.8.57.0/16 scope global flannel0
  valid_lft forever preferred_lft forever
  inet6 fe80::3578:6e81:8dc9:ed82/64 scope link flags 800
  valid_lft forever preferred_lft forever
  4: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN
  link/ether 02:42:8b:7c:fd:8d brd ff:ff:ff:ff:ff:ff
  inet 10.8.57.1/24 scope global docker0
  valid_lft forever preferred_lft forever
  &emsp;&emsp;Node节点:
[iyunv@k8s_client1 ~]# ip a

  1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
  link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
  inet 127.0.0.1/8 scope host lo
  valid_lft forever preferred_lft forever
  inet6 ::1/128 scope host
  valid_lft forever preferred_lft forever
  2: ens160: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
  link/ether 00:50:56:98:65:e0 brd ff:ff:ff:ff:ff:ff
  inet 192.168.3.217/24 brd 192.168.3.255 scope global ens160
  valid_lft forever preferred_lft forever
  inet6 fe80::250:56ff:fe98:65e0/64 scope link
  valid_lft forever preferred_lft forever
  4: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN
  link/ether 02:42:23:4b:85:6f brd ff:ff:ff:ff:ff:ff
  inet 10.8.6.1/24 scope global docker0
  valid_lft forever preferred_lft forever
  9: flannel0: <POINTOPOINT,MULTICAST,NOARP,UP,LOWER_UP> mtu 1472 qdisc pfifo_fast state UNKNOWN qlen 500
  link/none
  inet 10.8.6.0/16 scope global flannel0
  valid_lft forever preferred_lft forever
  inet6 fe80::827:f63e:34ee:1f8e/64 scope link flags 800
  valid_lft forever preferred_lft forever

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-449078-1-1.html 上篇帖子: 详解CentOS通过日志反查入侵 下篇帖子: CentOS打包和解压详解
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表