设为首页 收藏本站
查看: 2010|回复: 0

[经验分享] 再探oVirt

[复制链接]

尚未签到

发表于 2019-2-1 12:08:29 | 显示全部楼层 |阅读模式
  再探oVirt-测试2个节点的ovirt和glusterfs集群的可用性

  2016/10/19
  

一、基础操作
1、资源
ovirt engine: e01
ovirt node: n33, n34
2、hosts
10.50.200.1 e01.test
10.50.200.33 n33.test
10.50.200.34 n34.test
10.50.200.86 n86.test
二、配置主机
以n33为例,安装OS后:
hostname n33.test
vi /etc/sysconfig/network
vi /etc/hosts
curl http://my_office/repo/local-office.repo -o /etc/yum.repos.d/local-office.repo
curl http://my_office/ovirt/ovirt-3.5.repo -o /etc/yum.repos.d/ovirt-3.5.repo
curl http://my_office/ovirt/ovirt-3.6.repo -o /etc/yum.repos.d/ovirt-3.6.repo
mv /etc/yum.repos.d/CentOS-* /tmp/
yum clean all && yum makecache
yum install yum-plugin-priorities -y
yum install ntp vim lrzsz -y
yum install vdsm vdsm-cli -y

三、测试gluster服务的可用性(2节点)
1、配置存储
1)调整防火墙:
## ovirt LAN
-A INPUT -s 10.50.200.0/24 -j ACCEPT
2)分区
yum install lvm2 xfsprogs -y
如果已经存在/data分区,要先umount然后fdisk删除分区再继续操作
pvcreate /dev/sdb
vgcreate vg0 /dev/sdb
lvcreate -l 100%FREE -n lv01 vg0
mkfs.xfs -f -i size=512 /dev/vg0/lv01
mkdir /data
cat /etc/fstab
UUID=$(blkid /dev/vg0/lv01 |cut -d'"' -f2) /data                   xfs     defaults        0 0
_EOF
mount -a
3)配置 glusterfs 服务
mkdir /data/ovirt/
yum install glusterfs-server
service glusterd start
chkconfig glusterd on
[root@n33 ~]# gluster peer probe n34.test
[root@n33 ~]# gluster volume create ovirt-data replica 2 transport tcp \
n33.test:/data/ovirt/data \
n34.test:/data/ovirt/data
[root@n33 ~]# gluster volume start ovirt-data
【配置参数】
gluster volume set ovirt-data diagnostics.count-fop-hits on
gluster volume set ovirt-data diagnostics.latency-measurement on
gluster volume set ovirt-data storage.owner-gid 36
gluster volume set ovirt-data storage.owner-uid 36
gluster volume set ovirt-data cluster.server-quorum-type server
gluster volume set ovirt-data cluster.quorum-type auto
gluster volume set ovirt-data network.remote-dio enable
gluster volume set ovirt-data cluster.eager-lock enable
gluster volume set ovirt-data performance.stat-prefetch off
gluster volume set ovirt-data performance.io-cache off
gluster volume set ovirt-data performance.read-ahead off
gluster volume set ovirt-data performance.quick-read off
gluster volume set ovirt-data auth.allow \*
gluster volume set ovirt-data user.cifs enable
gluster volume set ovirt-data nfs.disable off
2、在 engine 页面选择菜单:“数据中心-Default-存储-新建域”
名称:data
域功能/存储类型:Data/GlusterFS
使用主机:n33.test
路径:n33.test:/ovirt-data
挂载选项:backupvolfile-server=n34.test

四、测试
1、客户机挂载
[root@n86 ~]# mount -t glusterfs -o backupvolfile-server=n34.test n33.test:/ovirt-data /data/test
2、测试用例
【测试用例01】断开其中一个节点的网络
1)断开n33的网卡
2)客户机
[root@n86 ~]# ls /data/test
ls: cannot access /data/test: Transport endpoint is not connected
3)ovirt页面的状态
数据中心:无响应
主机:n33 无响应;n34 无响应;
data域:失效
虚拟机:在n33上运行的vm处于未知状态,在n34上运行的vm处于暂停状态
4)恢复
启用网卡后,大约3分钟后,data域恢复工作。

【测试用例02】调整server-quorum-ratio 为 30%
1)设定参数
gluster volume set all cluster.server-quorum-ratio 30%
2)重复 测试用例01
等待几秒后:
[root@n86 ~]# ls /data/test
09cb8372-a68d-47dc-962e-70b5225be6bc  __DIRECT_IO_TEST__
说明,已经切换到备用节点,且通过ss -ant dst :49152可以验证。
[root@n86 test]# touch 1111
touch: cannot touch `1111': Read-only file system
但是,系统是只读的。
3)ovirt页面的状态
数据中心:无响应
主机:n33 无响应; n34 在3分钟后自行恢复
虚拟机:在n33上运行的vm处于未知状态,在n34上运行的vm处于暂停状态
data域:失效
4)恢复
启用网卡后,恢复到默认值:
gluster volume reset all

【测试用例03】调整server-quorum-ratio 为 70%
1)设定参数
gluster volume set ovirt-data cluster.server-quorum-type server
gluster volume set ovirt-data cluster.quorum-type auto
gluster volume set all cluster.server-quorum-ratio 70%
2)重复 测试用例01
现象和 测试用例01 一致
3)恢复
gluster volume reset all
gluster volume reset ovirt-data

【测试用例04】禁用quorum
1)调整集群参数,去掉quorum相关的配置。
gluster volume set ovirt-data diagnostics.count-fop-hits on
gluster volume set ovirt-data diagnostics.latency-measurement on
gluster volume set ovirt-data storage.owner-gid 36
gluster volume set ovirt-data storage.owner-uid 36
gluster volume set ovirt-data network.remote-dio enable
gluster volume set ovirt-data cluster.eager-lock enable
gluster volume set ovirt-data performance.stat-prefetch off
gluster volume set ovirt-data performance.io-cache off
gluster volume set ovirt-data performance.read-ahead off
gluster volume set ovirt-data performance.quick-read off
gluster volume set ovirt-data auth.allow \*
gluster volume set ovirt-data user.cifs enable
gluster volume set ovirt-data nfs.disable off
2)重复 测试用例01
等待几秒后可以发现,已经切换到备用节点,且通过ss -ant dst :49152可以验证是连接到节点n34上。
[root@n86 ~]# ls /data/test/
09cb8372-a68d-47dc-962e-70b5225be6bc  __DIRECT_IO_TEST__
[root@n86 ~]# cd /data/test/
[root@n86 test]# touch 1111
[root@n86 test]# ls
09cb8372-a68d-47dc-962e-70b5225be6bc  1111  __DIRECT_IO_TEST__
上述说明n33失效后,集群依然可以写入数据。
3)ovirt页面的状态
数据中心:无响应
主机:n33 无响应; n34 正常
data域:有效
虚拟机:在n33上运行的vm处于未知状态无法做任何操作(即无法强行关闭损失内存的数据,然后在其他host上启动这个vm),在n34上运行的vm正常
4)恢复
启用网卡后,n33恢复正常,虚拟机处于暂停状态的异常无法直接启动,通过先关机后再启动后恢复可用。

3、【测试用例04】禁用quorum 初步符合需求,此时,ovirt-engine的页面中,如何迁移失效节点上的虚拟机呢?
此时,n33 已经下线,但glusterfs服务正常,在该节点上运行的vm处于未知状态,无法做任何操作。
选择 已下线的节点n33 的右键菜单:“确认主机已经重启”
根据提示:在没有正确手动重启的主机上执行这个操作可能会导致虚拟机在多个主机上启动时存储损坏。
确认操作即可。
结果:符合预期。虚拟机自动迁移到 n33 上。
注:恢复n33前,建议先重启一次。

五、小结
本文探讨了初期只有2个节点时,ovirt和glusterfs如何使用,当然,后续应及时的增加更多的节点到集群中。  





运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-670437-1-1.html 上篇帖子: GlusterFS分布式存储磁盘配额的总结与实践 下篇帖子: RedHat6.5 搭建glusterfs全过程
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表