设为首页 收藏本站
查看: 1319|回复: 0

[经验分享] 基于OpenStack的虚拟机在线迁移

[复制链接]

尚未签到

发表于 2018-6-2 10:57:50 | 显示全部楼层 |阅读模式
基于OpenStack的虚拟机在线迁移
虚拟机的迁移是指在源物理主机上运行的虚拟机操作系统及应用程序移动到目标物理主机上或虚拟机上,并且在目标主机上能够正常运行。在openstack中,openstack自带虚拟机的迁移功能,允许一个正在running的虚拟机实例从一个compute node迁移到另一个compute node。下面给大家推荐一篇相关的实战案例,作者是用友公有云技术总监,中国计算机学会高级会员,大数据专委会委员,前中科院副研究员www.x-quan.com
CSDN推荐:欢迎免费订阅《Hadoop与大数据周刊》获取更多Hadoop技术文献、大数据技术分析、企业实战经验,生态圈发展趋势。



以下是作者原文:


一直想和大家分享虚拟机的在线迁移,考虑到稳定性,我们在线上运行了几个月比较稳定后,再总结出来和大家分享。
大致描述一下场景:系统采用了计算存储松耦合结构,虚机的映像文件在远端共享存储上,所以迁移起来速度很快。在我们系统中,最快一个用了6秒,即完成了在线迁移,这是真正的live migration,我们一边迁移,一边故意在虚机里写数据,也正常完成。
配置方案




1.修改Nova.conf文件

添加:
image_cache_manager_interval=0
live_migration_flag=VIR_MIGRATE_UNDEFINE_SOURCE,VIR_MIGRATE_PEER2PEER,VIR_MIGRATE_LIVE,VIR_MIGRATE_UNSAFE
修改:
vncserver_listen=0.0.0.0
2.参与的计算节点机器名字都能ping通。
3.修改计算节点上 /etc/libvirt/libvirtd.conf:


before : #listen_tls = 0
after : listen_tls = 0
before : #listen_tcp = 1
after : listen_tcp = 1
add: auth_tcp = "none"


4.修改 /etc/sysconfig/libvirtd:
before :# LIBVIRTD_ARGS="--listen"
after :LIBVIRTD_ARGS="–listen"
5.在源计算节点上修改要迁移虚机的/var/run/libvirt/qemu/instance–xxx.xml文件,删除migrate-qemu-fd这一行,将vnc参数修改成0.0.0.0
6.重启计算节点上nova

7备注:
1.由于云机之前没有配置在线迁移,在迁移虚机之前,需要重启虚机。
2..因为计算节点上libvirtd的配置中增加了auth_tcp="none",算是一个安全漏洞,需要寻找更安全的办法,或者在迁移完成之后,注释掉这行,重启libvirt
3 已经编写了一个辅助程序自动做迁移


遇到的问题和解决办法
1.虚机的disk 的cache mode为writethrough,迁移的时候报错
openstack认为在centos上磁盘cache mod为writethrough时,迁移是不安全的。
解决的办法  :在nova.conf live_migration_flag参数后面增加VIR_MIGRATE_UNSAFE,官方在线迁移配置文件里没有这个参数。
2.qemu1.4的一个bug导致迁移失败
迁移失败,在目的节点上/var/log/libvrit/qemu/instances--xxxx.log里:
char device redirected to /dev/pts/1 (label charserial1)
qemu: warning: error while loading state section id 2
load of migration failed
解决办法:
1.在源计算节点上修改要迁移虚机的/var/run/libvirt/qemu/instance–xxx.xml文中删除migrate-qemu-fd这一行
2.重启源计算节点上的libvirtd
3.然后再执行nova live-migration命令
这个操作已经编写了一个程序自动执行。
3.vncserver的问题,需要重启虚拟机才可以迁移。
由于之前Nova.conf中vncserver_listen=计算机节点的ip,所以在虚拟机Kvm进程中参数中vnc=计算节点的ip,迁移的时候报错,在目的节点绑定不了源节点的IP,所以需要修改Libvirt.xml配置文件,重启虚机,然后才能进行迁移。
解决办法:
1.在源计算节点上/var/run/libvirt/qemu/instance–xxx.xml文中将vnc的参数修改成0.0.0.0
2.重启源计算节点libvirtd
3.然后再执行nova live-migration命令
这个操作已经编写了程序来自动完成
4.迁移完成后console.log,disk属主变成了root/root
迁移完成后,发现虚机的console.log和disk文件属主由qemu.qumu变成了root.root,这个估计是openstack迁移程序的问题,这个问题目前没有影响虚机。
解决办法:
修改文件属主,这个操作已经编写了程序来自动完成
5.源节点和目的节点cpu不兼容问题
迁移失败,在/var/log/nova/compute的日志:
"InvalidCPUInfo: Unacceptable CPU info: CPU doesn't have compatibility.\n\n0\n\nRefer to <a href="http://libvirt.org/html/libvirt-libvirt.html#virCPUCompareResult\n" ]"="" style="cursor: pointer; color: rgb(0, 102, 204); text-decoration: none;">http://libvirt.org/html/libvirt-libvirt.html#virCPUCompareResult\n"]
解决办法:
目前还没有解决办法
6.目的节点内存为负,
迁移失败,从控制节点的api.log上输出的错误是目的节点内存为-3400,不能满足迁移的需要。
解决办法:
用nova命令指定在该计算节点上创建虚机,能够成功。估计是迁移时候的调度算法和创建虚机时的调度算法不一致。
7.错误日志,在2.4上api.log
迁移时候一般看的日志有:
1.目的节点上的/var/log/libvirt/qemu/instances–xxx.log
2.目的节点上的/var/log/nova/compute.log
3.源节点上的/var/log/nova/compute.log
有时候迁移失败,命令行执行后报错:
ERROR: Live migration of instance bd785968-72f6-4f70-a066-b22b63821c3b to host compute-13 failed (HTTP 400) (Request-ID: req-180d27b5-9dc7-484f-9d9a-f34cccd6daa2)
但在上述的三个日志文件中都看不到任何的错误信息。
解决办法:
在控制节点或者是在操作迁移命令的节点上/var/log/nova/api.log有错误信息
走的弯路
1.尝试不用修改nova.conf里的vncserver_listen参数为0.0.0.0,
将/var/run/log/libvirt/qemu/instances--xxx.log里的vnc改成目的节点的ip,重启libvritd,然后进行迁移,可以成功,但如果迁移失败,当需要重新虚机的时候,虚机启动失败,在/var/log/libvrit/qemu/instances-xx.log的错误是
Failed to start VNC server on `172.18.2.15:0': Failed to bind socket: Cannot assign requested address
而/mnt/instances/instance--xxx/libvirt.xml里没有修改成目的节点的Ip。不知道这个参数被保存到了哪里
2.vnc 端口问题
在一次迁移失败后,在目的节点/var/log/libvirt/qemu/instance--xxx.log里的错误是:
2013-11-05 05:42:39.401+0000: shutting down
qemu: terminating on signal 15 from pid 10271,
猜想是由于虚机在源节点上的vnc监听端口在目的节点上被占用,所以导致启动不了。后来在其他机器上做了测试发现,在迁移到目的节点后vnc的端口自己会调整。
参考:
How to Migrate an Instance with Zero Downtime: OpenStack Live Migration with KVM Hypervisor and NFS Shared Storage
  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-506315-1-1.html 上篇帖子: 修改OpenStack中用户的密码 下篇帖子: OpenStack详细解读:定义,好处与使用实例(1)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表