Hello,<br><br>Read "man clusvcadm" to know about freeze feature . clusvcadm -Z doesn't freeze a node, instead it will freeze monitoring the service. <br>Please refer <a href="https://access.redhat.com/kb/docs/DOC-43505">https://access.redhat.com/kb/docs/DOC-43505</a> and <a href="http://sources.redhat.com/cluster/wiki/ServiceFreeze">http://sources.redhat.com/cluster/wiki/ServiceFreeze</a> more details about this feature.<br>
<br>The service going in failed may have many reasons. If any of resource's status check fails, rgmanager will use recovery policy and try to restart or relocate. But as you said, if there is any issue in unmounting fs resource, rgmanager will move service to failed state. If you set self_fence=1 in fs resource section and if force_unmount to fs resource is not successful, node will do self fence.<br>
<br><br>>>During servera reboot, servicea can not failover to standby node and the service state shows "recoverable"<br>You atleasr need paste snip of /var/log/messages from all nodes for this time to explain exactly what is happening.<br>
<br>>>After servera rebooted successfully, servicea can run on servera but then serverb and serverc reboot togeter.<br>Need to check logs to know reason for this.<br><br><br><br><div class="gmail_quote">On Tue, Jan 11, 2011 at 2:49 PM, KC LO <span dir="ltr"><<a href="mailto:kclo2000@gmail.com">kclo2000@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;"><div>Dear all,</div>
<div> </div>
<div>We have set up a 3 + 1 cluster which is 3 active node and 1 standby nodes and quorum disks.</div>
<div> </div>
<div>clustat<br></div>
<div>Member Status: Quorate</div>
<div> Member Name                             ID   Status<br> ------ ----                             ---- ------<br> servera                                1 Online, rgmanager<br> serverb                                2 Online, rgmanager<br>

 serverc                                3 Online, rgmanager<br> standby                               4 Online, Local, rgmanager<br> /dev/emcpowers                    0 Online, Quorum Disk</div>
<div> </div>
<div> Service Name                 Owner (Last)                   State<br> service:servicea              servera                   started<br> service:serviceb              serverb                   started<br> service:servicec              serverc                   started<br>

</div>
<div> </div>
<div>Any server failure and cause server relocate to the standby server and basically all cluster functions properly.</div>
<div> </div>
<div>However, when I type clusvcadm -Z servera, it can sucessfully freeze the nodes.  However, if I type clusvcadm -U servera to unfreeze the node, it will check the status of the running application under cluster monitoring.  But don't know why it return status failed while the application is running properly.  It will then try to stop the application and reported that it failed to unmount the partition and cause servera rebooted.  During servera reboot, servicea can not failover to standby node and the service state shows "recoverable".  After servera rebooted successfully, servicea can run on servera but then serverb and serverc reboot togeter.</div>


<div> </div>
<div>Do you have any idea?</div>
<br>--<br>
Linux-cluster mailing list<br>
<a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br></blockquote></div><br>