Have you tried changing clean_start="0" to 1?<br><br><div class="gmail_quote">On Wed, Jun 10, 2009 at 1:54 PM, Ray Van Dolson <span dir="ltr"><<a href="mailto:rvandolson@esri.com">rvandolson@esri.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">I'm setting up a simple 5 node "cluster" basically just for using a<br>
shared GFS2 filesystem between the nodes.<br>
<br>
I'm not really concerned about HA, I just want to be able to have all<br>
the nodes accessing the same block device (iSCSI)<br>
<br>
<?xml version="1.0"?><br>
<cluster alias="pds" config_version="6" name="pds"><br>
  <fence_daemon clean_start="0" post_fail_delay="0" post_join_delay="3"/><br>
  <clusternodes><br>
    <clusternode name="<a href="http://pds27.esri.com" target="_blank">pds27.esri.com</a>" nodeid="1" votes="1"><br>
      <fence><br>
        <method name="human"><br>
          <device name="human" nodename="<a href="http://pds27.esri.com" target="_blank">pds27.esri.com</a>"/><br>
        </method><br>
      </fence><br>
    </clusternode><br>
    <clusternode name="<a href="http://pds28.esri.com" target="_blank">pds28.esri.com</a>" nodeid="2" votes="1"><br>
      <fence><br>
        <method name="human"><br>
          <device name="human" nodename="<a href="http://pds28.esri.com" target="_blank">pds28.esri.com</a>"/><br>
        </method><br>
      </fence><br>
    </clusternode><br>
    <clusternode name="<a href="http://pds29.esri.com" target="_blank">pds29.esri.com</a>" nodeid="3" votes="1"><br>
      <fence><br>
        <method name="human"><br>
          <device name="human" nodename="<a href="http://pds29.esri.com" target="_blank">pds29.esri.com</a>"/><br>
        </method><br>
      </fence><br>
    </clusternode><br>
    <clusternode name="<a href="http://pds30.esri.com" target="_blank">pds30.esri.com</a>" nodeid="4" votes="1"><br>
      <fence><br>
        <method name="human"><br>
          <device name="human" nodename="<a href="http://pds30.esri.com" target="_blank">pds30.esri.com</a>"/><br>
        </method><br>
      </fence><br>
    </clusternode><br>
    <clusternode name="<a href="http://pds30.esri.com" target="_blank">pds30.esri.com</a>" nodeid="5" votes="1"><br>
      <fence><br>
        <method name="human"><br>
          <device name="human" nodename="<a href="http://pds30.esri.com" target="_blank">pds30.esri.com</a>"/><br>
        </method><br>
      </fence><br>
    </clusternode><br>
  </clusternodes><br>
  <cman expected_votes="1"/><br>
  <fencedevices><br>
    <fencedevice name="human" agent="fence_manual"/><br>
  </fencedevices><br>
</cluster><br>
<br>
In my thinking this sets up a cluster where only one node need be up to<br>
have quorum, and manual fencing is done for each node.<br>
<br>
However, when I start up the first node in the cluster, the fencing<br>
daemon hangs complaining about not being able to fence the other nodes.<br>
I have to run fence_ack_manual -n <nodename> for all the other nodes,<br>
then things start up fine.<br>
<br>
Is there a way to make the node just assume all the other nodes are<br>
fine and start up?  Am I really running much risk of the GFS2<br>
filesystem failing out?<br>
<br>
Thanks,<br>
Ray<br>
<font color="#888888"><br>
--<br>
Linux-cluster mailing list<br>
<a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
</font></blockquote></div><br>