<div dir="ltr">hi <br>in 2-node cluster you don't need a quorum disk , there is a 2-node cluster option that will added to the cluster.conf , and the cluster will be functional quorate and everything , think of it  if you have 2 nodes only . <br>
<br>regarding your problem , is the problem occuring on a specific node , or on both , if on a specific node , then check connectivity with shared disk , also how are you shutting down the cluster ( hard shutdown? ) , simultaneously or at the same time, .... it all maters ?? also check the fencing devices is the fencing occurring correctly ( did you tried to unplug network cables from one node and observed behavior )???? many parameters to check , my recommendation is to troubleshoot step by step starting with the basics ( hardware .. ) and on the way up .   <br>
<br><div class="gmail_quote">On Fri, Sep 24, 2010 at 7:38 PM, emilio brambilla <span dir="ltr"><<a href="mailto:emilio@inet.it">emilio@inet.it</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
hello,<br>
<br>
I have a 2 node cluster with qdisk quorum partition;<br>
<br>
each node has 1 vote and the qdisk has 1 vote too; in cluster.conf I have this explicit declaration:<br>
<cman expected_votes="3" two_node="0"\><br>
<br>
when I have both 2 nodes active cman_tool status tell me this:<br>
<br>
Version: 6.1.0<br>
Nodes: 2<br>
Expected votes: 3<br>
Quorum device votes: 1<br>
Total votes: 3<br>
Node votes: 1<br>
Quorum: 2<br>
<br>
then, if I power off a node these value, as expected, changed this way:<br>
Nodes: 1<br>
Total votes: 2<br>
<br>
and the cluster is still quorate and functional.<br>
<br>
the problem is if I power off both the node and them power on only one of them: in this case the single node does not quorate and the cluster does not start: I have to power on both the node to have the cluster (and services on the cluster) working.<br>

<br>
I'd like the cluster can work (and boot) even with a single node (ie, if one of the node has hw failure and is down I still want to be able to reboot the working node and have it booting correctly the cluster)<br>
<br>
any hints? (thank's for reading all this)<br>
<br>
-- <br>
bye,<br>
emilio<br><font color="#888888">
<br>
--<br>
Linux-cluster mailing list<br>
<a href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
</font></blockquote></div><br></div>