<br>This is as far as I got recently, and I called RH support and got nowhere.   GFS and RHCS are apparently very flaky and despite their supposedly being mission critical and enterprise ready.  This sounds like 'split brain' configuration where you finagle with the crappy software until each node is kind of a cluster unto itself but not all together.  
<br><br>Maybe Red Hat inc, can make a pretty red HTML applet that can convince me otherwise.  In the meantime, despite a ton of hard work on my part, it just convinced my client to switch to Microsoft clustering as fast as possible.   
<br><br>Actually I don't know which is the most disappointing - the flaky redhat software or the flaky redhat people.  Something to ponder as I remove the shadowman logo from my car.<br><br><br>Sincerely, <br>another Ubuntu convert
<br><br><br><br><br><br><br><div><span class="gmail_quote">On 11/5/06, <b class="gmail_sendername"><a href="mailto:romero.cl@gmail.com">romero.cl@gmail.com</a></b> <<a href="mailto:romero.cl@gmail.com">romero.cl@gmail.com
</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Hi.<br><br>I'm trying your method, but still have a problem:<br><br>Note: /dev/db2/ is a local partition on my second SCSI hard drive (no RAID)
<br>runing on HP ProLiant<br><br>On node3:<br># /usr/sbin/vgcreate vg01 /dev/sdb2<br>  Volume group "vg01" successfully created<br># /usr/sbin/vgchange -cy vg01<br>  Volume group "vg01" is already clustered
<br># /usr/sbin/lvcreate -n node3_lv -L 67G vg01<br>  Error locking on node node4: Internal lvm error, check syslog<br>  Failed to activate new LV.<br><br>  --->On node4 log : lvm[6361]: Volume group for uuid not found:
<br>sgufJEs53VJSJTKG0vA1dLHXTthjnFctmfjC6YddzZvY3LI6db300wqEp8H0H58H<br><br><br>Then I can mount /dev/vg01/node3_lv as gfs on node3, but node4 can't view<br>the new files.<br><br>What i'm trying to do is to mount 2 partitions (one on node3, the other on
<br>node4) as one big shared drive using gfs and then expand this to 4 nodes.<br><br>Any help is well appreciated!!! (i'm a cluster newbie)<br>Thanks.<br><br><br>> Hi,<br>><br>> When using GFS in a clustered environment, I strongly recommend you use
<br>LVM<br>> rather than using the raw device for your GFS partition.  Without a<br>> clustered<br>> LVM of some sort, there is no locking coordination between the nodes.<br>> I'm assuming, of course, that device sdb is some kind of shared storage,
<br>> like a SAN.<br>><br>> For example, assuming that your /dev/sdb2 has no valuable data yet, I<br>> recommend<br>> doing something like this:<br>><br>> pvcreate /dev/sdb2<br>> vgcreate your_vg /dev/sdb2  (where "your_vg" is the name you choose for
<br>> your new vg)<br>> vgchange -cy your_vg (turn on the clustered bit)<br>> lvcreate -n your_lv -L 500G your_vg (where 500G is the size of your file<br>> system,<br>>                 and your_lv is the name you choose for your lv)
<br>> gfs_mkfs -p lock_dlm -t node1_cluster:node1_gfs -j 8 /dev/your_vg/your_lv<br>> (on only one node)<br>> At this point you've got to bring up the cluster infrastructure, if it<br>> isn't already up.<br>> Next, mount the logical volume from both nodes:
<br>> mount -tgfs /dev/your_vg/your_lv /users/home<br>><br>> Now when you touch a file on one node, the other node should see it.<br>><br>> I hope this helps.<br>><br>> Regards,<br>><br>> Bob Peterson
<br>> Red Hat Cluster Suite<br>><br>> --<br>> Linux-cluster mailing list<br>> <a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster">
https://www.redhat.com/mailman/listinfo/linux-cluster</a><br><br>--<br>Linux-cluster mailing list<br><a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br><a href="https://www.redhat.com/mailman/listinfo/linux-cluster">
https://www.redhat.com/mailman/listinfo/linux-cluster</a><br></blockquote></div><br>