设为首页 收藏本站
查看: 1895|回复: 0

[经验分享] 基于Kubernetess集群部署完整示例——Guestbook

[复制链接]

尚未签到

发表于 2017-6-9 12:31:28 | 显示全部楼层 |阅读模式
  本文依赖环境:Centos7部署Kubernetes集群、基于Kubernetes集群部署skyDNS服务
  该示例中,我们将创建一个redis-master、两个redis-slave、三个frontend。其中,slave会实时备份master中数据,frontend会向master中写数据,之后会从slave中读取数据。所有系统间的调用(例如slave找master同步数据;frontend找master写数据;frontend找slave读数据等),采用的是dns方式实现。



1、准备工作

1.1镜像准备
  本示例中依赖以下几个镜像,请提前准备好:

  docker.io/redis:latest                                1a8a9ee54eb7
  registry.access.redhat.com/rhel7/pod-infrastructure:latest   34d3450d733b
  gcr.io/google_samples/gb-frontend:v3                  c038466384ab
  gcr.io/google_samples/gb-redisslave:v1                 5f026ddffa27


1.2环境准备
  需要一套kubernetes运行环境,及Cluster DNS,如下:



[iyunv@k8s-master ~]# kubectl cluster-info
Kubernetes master is running at http://localhost:8080
KubeDNS is running at http://localhost:8080/api/v1/proxy/namespaces/kube-system/services/kube-dns
kubernetes-dashboard is running at http://localhost:8080/api/v1/proxy/namespaces/kube-system/services/kubernetes-dashboard

To further debug and diagnose cluster problems, use 'kubectl cluster-info dump'.
[iyunv@k8s-master ~]# kubectl get componentstatus
NAME                 STATUS    MESSAGE              ERROR
scheduler            Healthy   ok                  
controller-manager   Healthy   ok                  
etcd-0               Healthy   {"health": "true"}   
[iyunv@k8s-master ~]# kubectl get nodes
NAME         STATUS    AGE
k8s-node-1   Ready     7d
k8s-node-2   Ready     7d
[iyunv@k8s-master ~]#  kubectl get deployment --all-namespaces
NAMESPACE     NAME                          DESIRED   CURRENT   UP-TO-DATE   AVAILABLE   AGE
kube-system   kube-dns                      1         1         1            1           5d
kube-system   kubernetes-dashboard-latest   1         1         1            1           6d
[iyunv@k8s-master ~]#


2、运行redis-master

2.1yaml文件
  1)redis-master-controller.yaml



apiVersion: v1
kind: ReplicationController
metadata:
name: redis-master
labels:
name: redis-master
spec:
replicas: 1
selector:
name: redis-master
template:
metadata:
labels:
name: redis-master
spec:
containers:
- name: master
image: redis
ports:
- containerPort: 6379
  2)redis-master-service.yaml



apiVersion: v1
kind: Service
metadata:
name: redis-master
labels:
name: redis-master
spec:
ports:
# the port that this service should serve on
- port: 6379
targetPort: 6379
selector:
name: redis-master
2.2创建rc及service
  Master上执行:



[iyunv@k8s-master yaml]# kubectl create -f redis-master-controller.yaml
replicationcontroller " redis-master" created
[iyunv@k8s-master yaml]# kubectl create -f redis-master-service.yaml
service " redis-master" created
[iyunv@k8s-master yaml]# kubectl get rc
NAME           DESIRED   CURRENT   READY     AGE
redis-master   1         1         1         1d
[iyunv@k8s-master yaml]# kubectl get pod
NAME                 READY     STATUS    RESTARTS   AGE
redis-master-5wyku   1/1       Running   0          1d


3、运行redis-slave

3.1yaml文件
  1)redis-slave-controller.yaml



apiVersion: v1
kind: ReplicationController
metadata:
name: redis-slave
labels:
name: redis-slave
spec:
replicas: 2
selector:
name: redis-slave
template:
metadata:
labels:
name: redis-slave
spec:
containers:
- name: worker
image: gcr.io/google_samples/gb-redisslave:v1
env:
- name: GET_HOSTS_FROM
value: dns
ports:
- containerPort: 6379
  2)redis-slave-service.yaml



apiVersion: v1
kind: Service
metadata:
name: redis-slave
labels:
name: redis-slave
spec:
ports:
- port: 6379
selector:
name: redis-slave
3.2创建rc及service
  Master上执行:



[iyunv@k8s-master yaml]# kubectl create -f redis-slave-controller.yaml
replicationcontroller "redis-slave" created
[iyunv@k8s-master yaml]# kubectl create -f redis-slave-service.yaml
service "redis-slave" created
[iyunv@k8s-master yaml]# kubectl get rc
NAME           DESIRED   CURRENT   READY     AGE
redis-master   1         1         1         1d
redis-slave    2         2         2         44m
[iyunv@k8s-master yaml]# kubectl get pod
NAME                 READY     STATUS    RESTARTS   AGE
redis-master-5wyku   1/1       Running   0          1d
redis-slave-7h295    1/1       Running   0          44m
redis-slave-r355y    1/1       Running   0          44m


4、运行frontend

4.1yaml文件
  1)frontend-controller.yaml



apiVersion: v1
kind: ReplicationController
metadata:
name: frontend
labels:
name: frontend
spec:
replicas: 3
selector:
name: frontend
template:
metadata:
labels:
name: frontend
spec:
containers:
- name: frontend
image: gcr.io/google_samples/gb-frontend:v3  
env:
- name: GET_HOSTS_FROM
value: dns
ports:
- containerPort: 80
  2)frontend-service.yaml



apiVersion: v1
kind: Service
metadata:
name: frontend
labels:
name: fronted
spec:
type: NodePort
ports:
- port: 80
nodePort: 30001
selector:
name: frontend
4.2创建rc及service
  Master上执行:



[iyunv@k8s-master yaml]# kubectl create -f frontend-controller.yaml
replicationcontroller "frontend" created
[iyunv@k8s-master yaml]# kubectl create -f frontend-service.yaml
service "frontend" created
[iyunv@k8s-master yaml]# kubectl get rc
NAME           DESIRED   CURRENT   READY     AGE
frontend       3         3         3         28m
redis-master   1         1         1         1d
redis-slave    2         2         2         44m
[iyunv@k8s-master yaml]# kubectl get pod
NAME                 READY     STATUS    RESTARTS   AGE
frontend-ax654       1/1       Running   0          29m
frontend-k8caj       1/1       Running   0          29m
frontend-x6bhl       1/1       Running   0          29m
redis-master-5wyku   1/1       Running   0          1d
redis-slave-7h295    1/1       Running   0          44m
redis-slave-r355y    1/1       Running   0          44m
[iyunv@k8s-master yaml]# kubectl get service
NAME            CLUSTER-IP       EXTERNAL-IP   PORT(S)    AGE
frontend        10.254.93.91     <nodes>       80/TCP     47m
kubernetes      10.254.0.1       <none>        443/TCP    7d
redis-master    10.254.132.210   <none>        6379/TCP   1d
redis-slave     10.254.104.23    <none>        6379/TCP   1h
4.3页面验证
  至此,Guestbook已经运行在了kubernetes中了,但是外部是无法通过通过frontend-service的IP10.0.93.91这个IP来进行访问的。Service的虚拟IP是kubernetes虚拟出来的内部网络,在外部网络中是无法寻址到的,这时候就需要增加一层外网到内网的网络转发。我们的示例中采用的是NodePort的方式实现的,之前在创建frontend-service时设置了nodePort: 30001,即kubernetes将会在每个Node上设置端口,成为NodePort,通过NodePort端口可以访问到真正的服务。
DSC0000.png

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-385614-1-1.html 上篇帖子: Centos7上安装Kubernetes集群部署docker 下篇帖子: 基于Kubernetes集群部署skyDNS服务
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表