设为首页 收藏本站
查看: 1355|回复: 0

[经验分享] 基于Vmware

[复制链接]
发表于 2018-6-6 16:26:33 | 显示全部楼层 |阅读模式
原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 、作者信息和本声明。否则将追究法律责任。http://robinzs.blog.51cto.com/2834668/1248812

  记得上回实验过RHCS6.3在KVM虚拟机下的三节点命令搭建HA,从那时起一直想将虚拟机如何配置fence设备整理出一份文档。先来说说我已经知道的,从上次的实验可以得出结论kvm虚拟环境支持RHCS的fence设备是fence_virtsh。但KVM单机版应用并不广泛,据说RHEV在中国南方地区应用较广,从搭建角度来说要比Vmware的ESXi复杂很多,而且至少需要一台物理主机一台虚拟主机才能实现,所以这次先ESXi为虚拟环境。



现阶段虚拟化的主流与大玩家之一是Vmware的vcenter-server,可惜同样的,物理设备提供不了全套的实验环境,不过单以RHCS的的实验而言,只要能装一台ESXi 也就够了,我的实验版本是5.1。由于RHCS的fence设备类型对不同RHEL版本兼容性不同,而RHEL业内较常用版本是5与6,所以我先从RHEL6.3开始测试,集群服务尽量简单,以测试fence设备为主。环境规划如下:
DSC0000.jpg
无论实验的RHEL版本怎么变,上述这个拓扩图是不变的。没办法,为个实验花几千大元买个物理机有些不值,花钱容易挣钱难那!闲话少说,接下为是具体规划内容:

ESXi地址:192.168.0.10
DSC0001.jpg
vsphere-client
连接界面:
DSC0002.jpg

虚拟主机名:s1.example.com s1;s2.example.com s2
虚拟机地址:心跳eth0—192.168.0.1,192.168.0.2;业务eth1—192.168.8.20,192.168.8.21
集群服务:为简单从事,服务就一个VIP—192.168.8.50



第一个测试系统RHEL6.3-64
安装系统就不用说了,是个人就行。
安装完系统后要做一系列的基本设置,这里也不再繁述(具体见上篇博客)。直奔主题HA设置,这次我是用LUCI做的,将做完的结果记录下来。首先添加节点:
DSC0003.jpg
添加fence设备:
DSC0004.jpg
fence设备类型选择VMware_fence_soap,是RHEL部分系统的ESXi虚拟fence设备。做到这里我查了红帽官网的fence设备对不同RHEL版本的兼容列表

DSC0005.jpg
DSC0006.jpg
可以看到,对RHEL5版本中5.7和以上版本都支持;6版本支持6.2及以上版本。其实这个兼容列表还有很多内容,包括了所有的fence设备,还有对RHEV的兼容情况都有。地址是:https://access.redhat.com/site/articles/28601
名称随便写,我写的是esxi_fence,这么写明白一些;
IP地址填ESXi平台的IP地址;
用户名与密码填写ESXi的帐号,我直接写的是root用户。


设备添加完成,与节点关联,以s1为例:
DSC0007.jpg
节点的fence设备名称是fence_s1
在关联的时候还需要填写portuuid两项,port指对ESXi而言的虚拟机名称,uudi是指虚拟机在ESXi的设备id,这两者在虚拟平台是唯一的。
port好说
DSC0008.jpg
两个虚拟机主机分别叫RHEL6.3-1RHEL6.3-2
uuid如何来找,说到这里不得不提一下ESXi的底层是什么,其实就是个Linux,而虚拟机对其而言就是设备,可以通过SSH登陆进去(之前要将ESXi的SSH连接开启)
DSC0009.jpg
上图为ESXi5.1的根目录文件,虚拟机设备文件在/vmfs/volumes/datastore1下,我一共创建两个虚拟机,所以有两个目录 DSC00010.jpg ,目录名也就是虚拟主机名称。以RHEL6.3-1为例,查看该目录下文件:
DSC00011.jpg
用vi打开RHEL6.3-1.vmx,找到uuid关键字:
uuid.location = "56 4d 89 20 d6 4f 44 7c-1e 04 19 ad 4b 5a 82 81",这就是它的uuid号。不过直接填上去是不行的,uuid有一定的式。应该填写什么,回到LUCI界面,刚才只不过是扩充部分内容,呵呵
这时打开任意节点的命令行界面,运行命令
fence_vmware_soap -a 192.168.0.10 -z -l root -p robinz712 -o list
这行命令行的效果是列出ESXi平台的所有集群结点的UUID
DSC00012.jpg
直接根据对应的虚拟机名称将uuid填写上去即可。
具体fence_vmware_soap设备都有什么参数,附上红帽官方文档的说明
DSC00013.jpg
接下来将ssl选中,fence设备与节点就关联完了。


接下来是故障域、资源、服务,不做为重点就简单一代而过了
DSC00014.jpg
故障域设置
DSC00015.jpg
开始时说过,为简单从事,只有一个服务,就是VIP
DSC00016.jpg
DSC00017.jpg
好,截图到这里算是设置完了,集群也启动了。
DSC00018.jpg
在集群测试之前,先用命令行测试esxi的虚拟fence功能是否正常,以s1节点为例

fence_vmware_soap -a 192.168.0.10 -z -l root -p robinz712 -n RHEL6.3-1 -o status
查看虚拟fence设备状态
Status: ON
出现上述结果代表虚拟fence设备能够使用,也可以使用上述命令重启节点,将-o参数改为reboot即可,而且我也做过测试能够成功,这个功能在接着测试集群的时候详加说明。


down心跳网卡测试集群,现在服务在s1节点上,我现在当s1的eth0网卡
ifdown eth0
这时将视角转到ESXi的平台界面的底部,查看操作记录
DSC00019.jpg
可以看到ESXi是根据设备uuid号查找设备并进行虚拟fence动作的
DSC00020.jpg
再来看看集群状态
DSC00021.jpg

这时s1重启完成,而s2也已经接管服务。同样的,down业务网卡迁移服务正常,过程不再繁述。
最后一项测试是两个虚拟主机都关机的情况下,先开启s1节点,到集群服务启动后,会自动远程开启s2节点
DSC00022.jpg
上图所示测试成功!



到此,ESXi5.1平台下的RHEL6.3版本的集群fence设备测试完成,根据红帽官方的兼容列表6.2版本与5版本的5.7以上系统都可以使用fence_vmware_soap设备,故这几个版本不再做为主要测试对象。下一篇开始实验6.05.6版本fence设备配置。




附上cluster.conf 配置文件
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
<?xmlversion=&quot;1.0&quot;?>
<clusterconfig_version=&quot;9&quot;name=&quot;esxi_cluster&quot;>
<clusternodes>
<clusternodename=&quot;s1.example.com&quot;nodeid=&quot;1&quot;>
<fence>
<methodname=&quot;fence_s1&quot;>
<devicename=&quot;esxi_fence&quot;port=&quot;RHEL6.3-1&quot;ssl=&quot;on&quot;uuid=&quot;564d8920-d64f-447c-1e04-19ad4b5a8281&quot;/>
</method>
</fence>
</clusternode>
<clusternodename=&quot;s2.example.com&quot;nodeid=&quot;2&quot;>
<fence>
<methodname=&quot;fence_s2&quot;>
<devicename=&quot;esxi_fence&quot;port=&quot;RHEL6.3-2&quot;ssl=&quot;on&quot;uuid=&quot;564df200-c159-b022-416e-3c9fba63fe9b&quot;/>
</method>
</fence>
</clusternode>
</clusternodes>
<cmanexpected_votes=&quot;1&quot;two_node=&quot;1&quot;/>
<fencedevices>
<fencedeviceagent=&quot;fence_vmware_soap&quot;ipaddr=&quot;192.168.0.10&quot;login=&quot;root&quot;name=&quot;esxi_fence&quot;passwd=&quot;robinz712&quot;/>
</fencedevices>
<rm>
<resources>
<ipaddress=&quot;192.168.8.50&quot;/>
</resources>
<failoverdomains>
<failoverdomainname=&quot;esxi_domain&quot;nofailback=&quot;1&quot;ordered=&quot;1&quot;restricted=&quot;1&quot;>
<failoverdomainnodename=&quot;s1.example.com&quot;priority=&quot;1&quot;/>
<failoverdomainnodename=&quot;s2.example.com&quot;priority=&quot;2&quot;/>
</failoverdomain>
</failoverdomains>
<servicedomain=&quot;esxi_domain&quot;exclusive=&quot;1&quot;name=&quot;esxi_service&quot;recovery=&quot;relocate&quot;>
<ipref=&quot;192.168.8.50&quot;/>
</service>
</rm>
</cluster>



  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-519523-1-1.html 上篇帖子: 使用虚拟机VMware出现笔记本无法上网问题 下篇帖子: VMWARE引起xampp无法启动apache服务一例
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表