<div dir="ltr"><div>Once your VM is under cluster control, you should use the cluster commands to start, stop or migrate it. Using a combination of Cluster and virsh commands can result in a corrupt VM disk image as you can end up with the VM running on multiple nodes at the same time. <br>
<br></div><div>I messed this up once while building on of my clusters. <br></div><div><br>See the below links:<br><a href="https://access.redhat.com/site/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/High_Availability_Add-On_Overview/s2-rgmanager-virt-features.html">https://access.redhat.com/site/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/High_Availability_Add-On_Overview/s2-rgmanager-virt-features.html</a><br>
<br><a href="https://fedorahosted.org/cluster/wiki/VirtualMachineBehaviors">https://fedorahosted.org/cluster/wiki/VirtualMachineBehaviors</a><br><br></div>Keith<br><div><br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">
On Tue, Apr 23, 2013 at 10:42 AM, Digimer <span dir="ltr"><<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class="im">On 04/23/2013 06:11 AM, Ralf Aumueller wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hello,<br>
<br>
we have two 2-node clusters running on CentOS 6.4. Only service managed by<br>
clusters are KVM virtual machines. Both clusters have access to an NFS-server on<br>
which the config and storage files of the VMs reside.<br>
Now I want to move a VM from cluster1 to cluster2 with the following approach:<br>
<br>
On cluster1:<br>
  Edit cluster.conf and remove vm1 config<br>
  cman_tool version -r<br>
  virsh migrate --live vm1 qemu+ssh://HOST1_CL2/system tcp:HOST1_CL2<br>
<br>
(After live migration finished)<br>
<br>
On cluster2:<br>
  Edit cluster.conf and add vm1 config<br>
  cman_tool version -r<br>
  clusvcadm -e vm:vm1<br>
   (I have autostart="0" so I need to enable the VM. Cluster-SW finds running vm1<br>
and clustat is OK).<br>
<br>
I tried it and it worked -- but is it save? Any comments (expect to ask why we<br>
have two 2-node clusters :-) ) ?<br>
<br>
Best regard,<br>
Ralf<br>
</blockquote>
<br></div>
Did you try;<br>
<br>
clusvcadm -M vm:foo -m target.node<br>
<br>
That is how I live-migrate VMs. No need to remove it from the cluster and then re-add it.<span class="HOEnZb"><font color="#888888"><br>
<br>
-- <br>
Digimer<br>
Papers and Projects: <a href="https://alteeve.ca/w/" target="_blank">https://alteeve.ca/w/</a><br>
What if the cure for cancer is trapped in the mind of a person without access to education?</font></span><div class="HOEnZb"><div class="h5"><br>
<br>
-- <br>
Linux-cluster mailing list<br>
<a href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/<u></u>mailman/listinfo/linux-cluster</a><br>
</div></div></blockquote></div><br></div>