亲宝软件园·资讯

展开

kvm虚拟机在线迁移 详解基于本地存储的kvm虚拟机在线迁移

桦仔 人气:0
想了解详解基于本地存储的kvm虚拟机在线迁移的相关内容吗,桦仔在本文为您仔细讲解kvm虚拟机在线迁移的相关知识和一些Code实例,欢迎阅读和指正,我们先划重点:kvm虚拟机在线迁移,kvm在线迁移,kvm虚拟机迁移,下面大家一起来学习吧。

kvm虚拟机迁移分为4种

(1)热迁移基于共享存储

(2)热迁移基于本地存储

(3)冷迁移基于共享存储

(4)冷迁移基于本地存储

这里介绍的是基于本地存储的热迁移

动态块迁移版本要求

qemu版本要求  大于或等于0.12.1(centos6.7或以上都没问题)

rpm -qa|grep qemu
qemu-kvm-0.12.1.2-2.491.el6_8.1.x86_64
qemu-kvm-tools-0.12.1.2-2.491.el6_8.1.x86_64

目标宿主机:192.168.1.24  机器名:CQ-KVM01

源宿主机:192.168.1.26   机器名:CQ-KVM02

迁移使用tcp认证方式

kvm虚拟机名称,是一台跑nginx的虚拟机:CQ-NGINX01

1、配置libvirtd服务 源宿主机和目标宿主机都要执行

vi /etc/libvirt/libvirtd.conf
listen_tls = 0  
listen_tcp = 1
tcp_port = "16509"
listen_addr = "0.0.0.0"
auth_tcp = "none"
mdns_adv = 0

解释

sed -i 's/^#listen_tls = 0/listen_tls = 0/' /etc/libvirt/libvirtd.conf
sed -i 's/^#listen_tcp = 1/listen_tcp = 1/' /etc/libvirt/libvirtd.conf
sed -i 's/^#tcp_port = \"16509\"/tcp_port = \"16509\"/' /etc/libvirt/libvirtd.conf
sed -i 's/^#listen_addr = \"192.168.0.1\"/listen_addr = \"0.0.0.0\"/' /etc/libvirt/libvirtd.conf
sed -i 's/^#auth_tcp = \"sasl\"/auth_tcp = \"none\"/' /etc/libvirt/libvirtd.conf
sed -i 's/^#mdns_adv = 1/mdns_adv = 0/' /etc/libvirt/libvirtd.conf
cat libvirtd.conf |grep -iE "listen_tls"
cat libvirtd.conf |grep -iE "listen_tcp"
cat libvirtd.conf |grep -iE "tcp_port"
cat libvirtd.conf |grep -iE "listen_addr"
cat libvirtd.conf |grep -iE "auth_tcp"
cat libvirtd.conf |grep -iE "mdns_adv"

2、配置libvirtd监听方式,无论是tcp,ssh,tls认证方式都需要配置 , 源宿主机和目标宿主机都要执行

vi /etc/sysconfig/libvirtd
LIBVIRTD_ARGS="--listen"

3、编辑/etc/libvirt/qemu.conf文件  源宿主机和目标宿主机都要执行

vi /etc/libvirt/qemu.conf
vnc_listen = "0.0.0.0"

解释

4、重启libvirtd服务,使配置生效,  源宿主机和目标宿主机都要执行

/etc/init.d/libvirtd restart

5、检查端口和进程,libvirtd是否监听16509端口,  源宿主机和目标宿主机都要执行

netstat -lntp | grep libvirtd
tcp        0      0 0.0.0.0:16509               0.0.0.0:*                   LISTEN      48825/libvirtd   

修改iptables脚本,放行16509端口和49152端口

#ACCESS kvm
iptables -A INPUT -m state --state NEW -m tcp -p tcp --dport 5900:5909 -j ACCEPT
iptables -A INPUT -p tcp --dport 16509 -j ACCEPT
iptables -A INPUT -p tcp --dport 49152 -j ACCEPT

6、在源宿主机和目标宿主机加上IP和主机的解析

#24机器上
echo "192.168.1.26 CQ-KVM02" >> /etc/hosts
#26机器上
echo "192.168.1.24 CQ-KVM01" >> /etc/hosts

7、在源宿主机连接目标宿主机的libvirtd并查看虚拟机信息

virsh -c qemu+tcp://root@192.168.1.26:16509/system
virsh -c qemu+tcp://root@192.168.1.24:16509/system

8、在目标宿主机创建同样大小的镜像文件,路径、名称也要一样

要加上preallocation=metadata,否则使用virt-install命令安装完成后虚拟机磁盘镜像会变为raw格式

qemu-img create -f qcow2 -o preallocation=metadata /data/kvmimg/CQ-NGINX01.qcow2 100G

9、迁移 ,192.168.1.26为目标宿主机的内网IP,tcp认证方式,迁移时间有点长需要开一个screen窗口,不需要cd 到镜像文件所在目录

screen -S migratekvm
virsh migrate --live --copy-storage-all --unsafe --persistent CQ-NGINX01 qemu+tcp://root@192.168.1.26:16509/system

10、在目标宿主机执行,会显示paused状态 即是suspended状态

watch virsh list --all

11、在目标宿主机执行,显示迁移进度

tailf /var/log/libvirt/qemu/CQ-NGINX01.log

12、在目标宿主机执行,镜像文件目录为/data/kvmimg/,显示虚拟机镜像的大小,会看到虚拟机镜像会不断增大表示数据已经在迁移过来

注意创建镜像文件的时候要使用preallocation=metadata

cd /data/kvmimg/
watch du -h *

13、虚拟机迁移完成后,源宿主机为关机状态,目标宿主机变为running状态

virsh list --all #源宿主机
virsh list --all #目标宿主机

14、源宿主机删除xml配置文件

virsh destroy CQ-NGINX01
virsh undefine CQ-NGINX01

注意:

迁移过程中ping会有卡顿,有时会丢几个包,如果虚拟机中有部署数据库,应用程序最好有重连机制

回迁方法

建议不要删除源宿主机上的镜像文件,保留镜像文件

#在目标宿主机上执行 ,回迁到源宿主机

virsh dumpxml CQ-NGINX01 >~/CQ-NGINX01.xml
virsh migrate --live --copy-storage-all --unsafe --persistent CQ-NGINX01 qemu+tcp://root@192.168.1.24:16509/system

注意:

源宿主机和目标宿主机最好要保持硬件一致 ,这样迁移和回迁出问题的几率才能降到最低!

迁移速度和成功率和网络有很大关系,宿主机的网络尽量是万兆或千兆多网卡绑定,可以提高迁移速度和成功率

#限制迁移速度 为600M/s
virsh migrate-setspeed CQ-NGINX01 600

--------------------------------------------------------------------------------

在线迁移问题汇总

(如果ssh的端口不是默认22,可以写为 qemu+ssh://target:port/system)

Question 1:

error: internal error hostname on destination resolved to localhost, but migration requires an FQDN

解决办法很简单,因为默认情况下hostname 是 localhost,我们需要把目标的hostname修改一下,临时的也可以。

#hostname target

Question 2:
error: internal error Attempt to migrate guest to the same host 00020003-0004-0005-0006-000700080009

这个在mail list 中有大牛说是服务器提供商的问题,你可以用#dmidecode -s system-uuid 查看一下这个ID,理论上是#virsh sysinfo | grep uuid 及# virsh capabilities | grep uuid

这三个ID是一样的。(之前看论坛里发的解决方法是需要下载一个dmidecode 命令的文件去替换系统的,达到修改的目的,不过我只是修改了libvirt的配置文件就可以了,可能是版本的问题)

我们修改一下libvirtd的配置文件

#sed -i "/#host_uuid/ahost_uuid = \"`uuidgen`\"" /etc/libvirt/libvirtd.conf

重启一下libvirtd 服务

# /etc/init.d/libvirtd restart

然后再查看一下

# virsh capabilities | grep uuid

Question 3:

error: unable to set user and group to '107:107' on '/image/vmtest/disk.img': No such file or directory

如果顺利进入到这步的话,就很简单了,没有directory 直接创建一个就可以,没有disk.img 直接create一个

注:创建的磁盘应该和源虚拟机的磁盘是一样的大小(更大应该是可以)和格式(raw还是qcow2)

qemu-img create /image/vmtest/disk.img +sizeG

Question 4:

error: Unable to resolve address 'target' service '49155': Name or service not known

《《Name or service not known》》在/etc/hosts 添加解析的ip和target的域名即可

Question 5:

virsh migrate --live --copy-storage-all --unsafe --persistent CQ-NGINX01  qemu+tcp://root@192.168.1.24:16509/system

error: Unable to read from monitor: Connection reset by peer

可能目标宿主机和源宿主机内存不够

建议:目标宿主机和源宿主机上都关闭一些不必要的虚拟机把内存腾出来

也可以清空cache把内存腾出来

#清除cache 首先执行sync命令

sync
echo 3 > /proc/sys/vm/drop_caches

加载全部内容

相关教程
猜你喜欢
用户评论