I think your problem it's in your rhedhat cluster fencing, because in my current job i use SAN and we have the some problem, the only workaround it's fence delay in redhat cluster fencing agent<br><br><div class="gmail_quote">
2012/1/26  <span dir="ltr"><<a href="mailto:jayesh.shinde@netcore.co.in">jayesh.shinde@netcore.co.in</a>></span><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Dear Digimer & Kaloyan Kovachev ,<br><br>Do u think this server shutdown problem ( while fencing simultaneously from both node via drbd.conf) can be completely avoid  if I use SAN disk instead of DRBD disk ?<br><br>i.e  in case of SAN disk the defined fence config under cluster.conf will take care of the n/w failuer and related fencing of node ?<br>
<br>What you will suggect ,  SAN or DRBD disk.<br>please guide me.<br><br>Regards<br>Jayesh Shinde<br><br>Quoting Digimer <<a href="mailto:linux@alteeve.com" target="_blank">linux@alteeve.com</a>>:<br> <br>
> On 01/25/2012 08:57 AM, jayesh.shinde wrote:<br>
>> Hi Kaloyan Kovachev ,<br>
>><br>
>> I am using below config  in drbd.conf  which is mention on DRBD cookbook.<br>
>><br>
>> }<br>
>>   disk {<br>
>>     fencing resource-and-stonith;<br>
>>   }<br>
>>   handlers {<br>
>>     outdate-peer "/sbin/obliterate";<br>
>><br>
>> Under  /sbin/obliterate script , "fence_node" is mention.<br>
>><br>
>> *Do you know what is the default method with "**fence_node $REMOTE" *i.e<br>
>> reboot of power-off ?<br>
>><br>
>> Dear Digimer ,<br>
>><br>
>> Can you please guide me here.<br>
>><br>
>> Currently I am not having the test machine to test it , so all member's<br>
>> inputs will help me a lot to understand it.<br>
>><br>
>> Below is the /sbin/obliterate<br>
><br>
> I updated the tutorial to address this last night;<br>
><br>
> <a href="https://alteeve.com/w/2-Node_Red_Hat_KVM_Cluster_Tutorial#Hooking_DRBD_Into_The_Cluster.27s_Fencing" target="_blank">https://alteeve.com/w/2-Node_Red_Hat_KVM_Cluster_Tutorial#Hooking_DRBD_Into_The_Cluster.27s_Fencing</a><br>

><br>
> and<br>
><br>
> <a href="https://alteeve.com/w/2-Node_Red_Hat_KVM_Cluster_Tutorial#Configuring_DRBD_Global_and_Common_Options" target="_blank">https://alteeve.com/w/2-Node_Red_Hat_KVM_Cluster_Tutorial#Configuring_DRBD_Global_and_Common_Options</a><br>

><br>
> In short; this is a problem where the fence device, IPMI and DRAC here,<br>
> get the call to shut down their host but don't act on it fast enough to<br>
> block the call heading to the other node.<br>
><br>
> The obliterate scripts (obliterate is an older version of<br>
> obliterate-peer.sh, which I am working to replace with rhcs_fence now)<br>
> call cman to remove the peer node from the cluster, then call the actual<br>
> fence. For this reason, the delay set in cluster.conf won't help.<br>
><br>
> The options are to add a 'sleep 10;' to the start of *one* node's<br>
> obliterate or obliterate-peer.sh script. Alternatively, rhcs_fence uses<br>
> the node's ID to calculate a delay automatically to help avoid these<br>
> dual-fence scenarios.<span class="HOEnZb"><font color="#888888"><br>
><br>
> --<br>
> Digimer<br>
> E-Mail:              <a href="mailto:digimer@alteeve.com" target="_blank">digimer@alteeve.com</a><br>
> Papers and Projects: <a href="https://alteeve.com" target="_blank">https://alteeve.com</a><br>
><br><br>
</font></span><br>--<br>
Linux-cluster mailing list<br>
<a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br></blockquote></div><br><br clear="all"><br>-- <br>esta es mi vida e me la vivo hasta que dios quiera<br>