Can someone please explain what this means and what you can do to get out of it:<br><br>[root@cluster-host ~]# group_tool -v<br>type             level name       id       state node id local_done<br>fence            0     default    00010003 JOIN_STOP_WAIT 1 100050001 1<br>
[1 1 2 3 4]<br>dlm              1     clvmd      00020003 FAIL_STOP_WAIT 2 200030003 1<br>[1 2 3 4]<br>dlm              1     rgmanager  00030003 FAIL_STOP_WAIT 2 200030003 1<br>[1 2 3 4]<br><br>From reading:<br><br><a href="http://www.mailinglistarchive.com/linux-cluster@redhat.com/msg04478.html">http://www.mailinglistarchive.com/linux-cluster@redhat.com/msg04478.html</a><br>
<br>and the associated page in Japanese my understanding is:<br><br>- one of the services, probably clvmd has failed (I have no idea why and can't find anything in the logs as to why)<br>- due to the nature of the services, once one hangs the rest sit in deadlock waiting for it to resume<br>
- the only way to resolve this problem is to "xm destroy" the VM, set "chkconfig cman off" on all cluster nodes, reboot all nodes then start cman simultaneously. this fixes the problem but its fairly destructive and hackish<br>
<br>We are using:<br><br>CentOS 5.5 with latest patches for the most part, RHEL5.4 dom0 with xen and fence_xvmd running. That part is all working well. The clvmd disks are connected to SAN disks on an EMC disk array.<br><br>
Weirdly I seem to have two versions of openais installed which seems odd<br><br>OpenAIS version : openais-0.80.6-16.el5_5.7.x86_64<br>CMAN version: cman-2.0.115-34.el5_5.3.x86_64<br><br>Thanks<br><br>Joel<br>