设为首页 收藏本站
查看: 1508|回复: 0

[经验分享] kubernetes基础入门之-安装部署配置示例

[复制链接]

尚未签到

发表于 2018-9-16 07:34:06 | 显示全部楼层 |阅读模式
  详细内容请查看此处
  ### 系统环境准备(CentOS 7.2):
  a) # systemctl disable firewalld
  b) # sed -i s'/SELINUX=enforcing/SELINUX=disabled/g' /etc/sysconfig/selinux
  c) # yum -y update && reboot
  d) # yum -y install ntpdate && ntpdate cn.pool.ntp.org
  Master : 192.168.11.10
  node1 : 192.168.11.20
  node2 : 192.168.11.30
  下载安装:
  etct: https://github.com/coreos/etcd/releases
  flannel: https://github.com/coreos/flannel/releases
  kubernetes: https://github.com/kubernetes/kubernetes/releases
  docker: https://docs.docker.com/engine/installation/linux/centos/
  ) 分别在各节点写入DNS:
  192.168.11.10 master hub.jevic.io
  192.168.11.20 node1
  192.168.11.30 node2
  ----------------------------------------------------
  Kubernetes 二进制版本:
  https://github.com/kubernetes/kubernetes/releases/download/v1.4.6/kubernetes.tar.gz
  Master 配置: 192.168.11.10
  [root@ master]# ls /opt/sourceetcd
  flannel  etcd  kubernetes
  [root@ master] ln -s  /opt/source/etcd/etcd /usr/local/bin
  [root@ master] ln -s  /opt/source/etcd/etcdctl /usr/local/bin
  [root@ master] ln -s  /opt/source/flannel/flanneld /usr/local/bin
  [root@ master] ln -s  /opt/source/kubernetes/server/bin/kube-apiserver /usr/local/bin
  [root@ master] ln -s  /opt/source/kubernetes/server/bin/kube-controller-manager /usr/local/bin
  [root@ master] ln -s  /opt/source/kubernetes/server/bin/kubectl /usr/local/bin
  [root@ master] ln -s  /opt/source/kubernetes/server/bin/kube-scheduler /usr/local/bin
  [root@ master] mkdir /var/log/{flanneld,kubernetes}
  [root@ master] nohup etcd --name etcd10 --data-dir /var/lib/etcd \
  --listen-client-urls http://0.0.0.0:2378,http://0.0.0.0:4001 \
  --advertise-client-urls http://0.0.0.0:2378,http://0.0.0.0:4001 >> /var/log/etcd.log 2>&1 &
  [root@ master] nohup flanneld --listen=0.0.0.0:8888 >> /var/log/flanneld/flanneld.log 2>&1 &
  [root@ master] etcdctl set /coreos.com/network/config '{ "Network": "10.1.0.0/16" }'
  --- 然后在node1,node2 分别执行(a-g)部分操作 ---
  最后开启kubernetes服务:
  [root@ master] nohup kube-apiserver --logtostderr=true \
  --v=0 --etcd_servers=http://0.0.0.0:2378 \
  --insecure-bind-address=0.0.0.0 \
  --insecure-port=8080 \
  --service-cluster-ip-range=10.254.0.0/16 >> /var/log/kubernetes/kube-apiserver.log 2>&1 &
  [root@ master] nohup kube-controller-manager --logtostderr=true --v=0 --master=http://0.0.0.0:8080 >> /var/log/kubernetes/controller.log 2>&1 &
  [root@ master] nohup kube-scheduler --logtostderr=true --v=0 --master=http://0.0.0.0:8080 >> /var/log/kubernetes/scheduler.log 2>&1 &
  查看节点是否加入:
  [root@ master] kubectl get nodes
  NAME       STATUS    AGE
  node1      Ready     1h
  node2      Ready     39m
  ----------------------------------------------------
  Node 节点配置:
  【node1: 192.168.11.20】
  [root@ node1]# ls /opt/source
  flannel   kubernetes
  [root@ node1]# ln -s /opt/source/etcd/etcd  /usr/local/bin
  [root@ node1]# ln -s /opt/source/etcd/etcdctl /usr/local/bin
  [root@ node1]# ln -s /opt/source/flannel/flanneld /usr/local/bin
  [root@ node1]# ln -s /opt/source/kubernetes/server/bin/kubelet /usr/local/bin
  [root@ node1]# ln -s /opt/source/kubernetes/server/bin/kube-proxy /usr/local/bin
  a.[root@ node1]# mkdir /var/log/{flanneld,kubernetes}
  b.[root@ node1]# nohup flanneld -etcd-endpoints=http://192.168.11.10:4001 -remote=192.168.11.10:8888 >> /var/log/flanneld/flanneld.log 2>&1 &
  c.[root@ node1]# source /run/flannel/subnet.env
  d.[root@ node1]# cat /run/flannel/subnet.env
  FLANNEL_NETWORK=10.1.0.0/16
  FLANNEL_SUBNET=10.1.62.1/24
  FLANNEL_MTU=1472
  FLANNEL_IPMASQ=false
  e.[root@ node1]# grep "bip" /lib/systemd/system/docker.service
  ExecStart=/usr/bin/dockerd --bip=10.1.62.1/24 --mtu=1472
  f.[root@ node1]# systemctl daemon-reload && systemctl start docker
  g.[root@ node1]# ip a|egrep "docker|flan"
  3: flannel0:  mtu 1472 qdisc pfifo_fast state UNKNOWN qlen 500
  inet 10.1.62.0/16 scope global flannel0
  4: docker0:  mtu 1500 qdisc noqueue state DOWN
  inet 10.1.62.1/24 scope global docker0
  最后启动kubernetes节点服务:
  [root@ node1]# nohup kubelet --address=0.0.0.0 \
  --port=10250 --logtostderr=true --v=0 \
  --api-servers=http://192.168.11.10:8080 >> /var/log/kubernetes/kubelet.log 2>&1 &
  [root@ node1]# nohup kube-proxy --logtostderr=true --v=0 --master=http://192.168.11.10:8080 >> /var/log/kubernetes/proxy.log 2>&1 &
  ----------------------------------------------------
  【node2: 192.168.11.30】
  [root@ node2]# ls /opt/source
  flannel   kubernetes
  [root@ node2]# ln -s /opt/source/etcd/etcd  /usr/local/bin
  [root@ node2]# ln -s /opt/source/etcd/etcdctl /usr/local/bin
  [root@ node2]# ln -s /opt/source/flannel/flanneld /usr/local/bin
  [root@ node2]# ln -s /opt/source/kubernetes/server/bin/kubelet /usr/local/bin
  [root@ node2]# ln -s /opt/source/kubernetes/server/bin/kube-proxy /usr/local/bin
  a.[root@ node2]# mkdir /var/log/{flanneld,kubernetes}
  b.[root@ node2]# nohup flanneld -etcd-endpoints=http://192.168.11.10:4001 -remote=192.168.11.10:8888 >> /var/log/flanneld/flanneld.log 2>&1 &
  c.[root@ node2]# source /run/flannel/subnet.env
  d.[root@ node2]# cat /run/flannel/subnet.env
  FLANNEL_NETWORK=10.1.0.0/16
  FLANNEL_SUBNET=10.1.77.1/24
  FLANNEL_MTU=1472
  FLANNEL_IPMASQ=false
  e.[root@ node2]# grep "bip" /lib/systemd/system/docker.service
  ExecStart=/usr/bin/dockerd --bip=10.1.77.1/24 --mtu=1472
  f.[root@ node2]# systemctl daemon-reload && systemctl start docker
  g.[root@ node2]# ip a|egrep "docker|flan"
  3: flannel0:  mtu 1472 qdisc pfifo_fast state UNKNOWN qlen 500
  inet 10.1.77.0/16 scope global flannel0
  4: docker0:  mtu 1500 qdisc noqueue state DOWN
  inet 10.1.77.1/24 scope global docker0
  最后启动kubernetes节点服务:
  [root@ node2]# nohup kubelet --address=0.0.0.0 \
  --port=10250 --logtostderr=true --v=0 \
  --api-servers=http://192.168.11.10:8080 >> /var/log/kubernetes/kubelet.log 2>&1 &
  [root@ node2]# nohup kube-proxy --logtostderr=true --v=0 --master=http://192.168.11.10:8080 >> /var/log/kubernetes/proxy.log 2>&1 &


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-584296-1-1.html 上篇帖子: kubernetes adm 安装教程(网络使用calico) 下篇帖子: kubernetes基础入门之-配置kubernetes skyDNS服务
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表