<br><br><div><span class="gmail_quote">On 6/15/06, <b class="gmail_sendername">Kevin Anderson</b> <<a href="mailto:kanderso@redhat.com">kanderso@redhat.com</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
On Thu, 2006-06-15 at 02:49 +0800, jOe wrote:<br>> Hello all,<br>><br>> Sorry if this is a stupid question.<br>><br>> I deploy both HP MC/SG linux edition and RHCS for our customers. I<br>> just wondered why the latest RHCS remove quorum partition/lock lun
<br>> with the new fencing mechanisms(powerswitch,iLO/DRAC, SAN<br>> switch....)?<br><br>First off, I don't think it is completely fair to compare quorum<br>partitions to fencing.  They really serve different purposes.  Quorum
<br>partition gives you the ability to maintain the cluster through flakey<br>network spikes.  It will keep you from prematurely removing nodes from<br>the cluster.  Fencing is really used to provide data integrity of your
<br>shared storage devices.  You really want to make sure that a node is<br>gone before recovering their data.  Just because a node isn't updating<br>the quorum partition, doesn't mean it isn't still scrogging your file<br>
systems.  However, a combination of the two provides a pretty solid<br>cluster in small configurations.  And a quorum disk has another nice<br>feature that is useful.<br><br>That said, a little history before I get to the punch line.  Two
<br>clustering technologies were merged together for RHCS 4.x releases and<br>the resulting software used the core cluster infrastructure that was<br>part of the GFS product for both RHCS and RHGFS.  GFS didn't have a<br>
quorum partition as an option primarily due to scalability reasons.  The<br>quorum disk works fine for a limited number of nodes, but the core<br>cluster infrastructure needed to be able to scale to large numbers.  The<br>
fencing mechanisms provide the ability to ensure data integrity in that<br>type of configuration.  So, the quorum disk wasn't carried into the new<br>cluster infrastructure at that time.<br><br>Good news is we realized the deficiency and have added quorum disk
<br>support and it will be part of the RHCS4.4 update release which should<br>be hitting the RHN beta sites within a few days.  This doesn't replace<br>the need to have a solid fencing infrastructure in place.  When a node
<br>fails, you still need to ensure that it is gone and won't corrupt the<br>filesystem.  Quorum disk will still have scalability issues and is<br>really targeted at small clusters, ie <16 nodes.  This is primarily due
<br>to having multiple machines pounding on the same storage device.  It<br>also provides an additional feature, the ability to represent a<br>configurable number of votes.  If you set the quorum device to have the<br>same number of votes as nodes in the cluster.  You can maintain cluster
<br>sanity down to a single active compute node in the cluster.  We can get<br>rid of our funky special two node configuration option.  You will then<br>be able to grow a two node cluster without having to reset.<br><br>Sorry I rambled a bit..
<br><br>Thanks<br>Kevin<br><br>--<br>Linux-cluster mailing list<br><a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br><a href="https://www.redhat.com/mailman/listinfo/linux-cluster">https://www.redhat.com/mailman/listinfo/linux-cluster
</a><br></blockquote></div><br><br clear="all">Thank you very much Kevin, your information is very useful to us and i've shared it to our engineer team.<br>Here are two questions still left: <br>Q1: In a two node cluster config, how does RHCS(v4) handle the heartbeat failed ? (suppose the bonded heartbeat path still failed by some bad situations).
<br>When using quorum disk/lock lun, the quorum will act as a tier breaker and solve the brain-split if heartbeat failed. Currently the GFS will do this ? or other part of RHCS?<br><br>Q2: As you mentioned the quorum disk support is added into  RHCS 
v4.4 update release, so in a two-nodes-cluster config "quorum disk+bonding heartbeat+fencing(powerswitch or iLO/DRAC) (no GFS)" is the recommended config from RedHat? Almost 80% cluster requests from our customers are around two-nodes-cluster(10% is RAC and the left is hpc cluster), We really want to provide our customers a simple and solid cluster config in their production environment, Most customer configure their HA cluster as Active/passive so GFS is not necessary to them and they even don't want GFS exists in their two-nodes-cluster system.
<br><br>I do think more and more customers will choose RHCS as their cluster solution and we'll push this after completely understand RHCS's technical benefits and advanced mechanisms.<br><br>Thanks a lot,<br><br>Jun<br>