Thanks Robert.  I'm sorry, but I put you a little off track do to a typo.  I meant to say that gfs_fsck completes without errors.  I've run it twice.  The first pass did make a number of corrections, but completed through stage 5.  A subsequent gfs_fsck completed with no errors.
<br><br>The "gfs_tool sb /dev/etherd/e1.1 proto" does return lock_dlm as the lock protocol.<br><br>Which package contains the gfs_edit tool?<br><br>Thanks again,<br>Tom<br><br><br><div><span class="gmail_quote">
On 12/22/06, <b class="gmail_sendername">Robert Peterson</b> <<a href="mailto:rpeterso@redhat.com">rpeterso@redhat.com</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Robert Peterson wrote:<br>> <a href="mailto:bigendian+gfs@gmail.com">bigendian+gfs@gmail.com</a> wrote:<br>>> Hello Robert,<br>>><br>>> The other node was previously rebuilt for another temporary purpose
<br>>> and isn't attached to the SAN.  The only thing I can think of that<br>>> might have been out of the ordinary is that I may have pulled the<br>>> power on the machine while it was shutting down during some file
<br>>> system operation.  The disk array itself never lost power.<br>>><br>>> I do have another two machines configured in a different cluster<br>>> attached to the SAN.  CLVM on machines in the other cluster does show
<br>>> the volume that I am having trouble with though those machines do not<br>>> mount the device.  Could this have caused the trouble?<br>>> More importantly, is there a way to repair the volume?  I can see the
<br>>> device with fdisk -l and gfs_fsck completes with errors, but mount<br>>> attempts always fail with the "mount: /dev/etherd/e1.1 already<br>>> mounted or /gfs busy" error.  I don't know how to debug this at a
<br>>> lower level to understand why this error is happening.  Any pointers?<br>Hi Tom,<br><br>Another thought.  If someone went in there without your knowledge and<br>did something bad<br>like mkfs.ext3 /dev/etherd/e1.1 (or 
mkfs.vfat, reiserfs, xfs, jffs2, or<br>whatever)<br>or worse, the underlying device, it would also manifest itself as the<br>problem you're seeing.<br><br>If it were me, I'd do: "gfs_edit /dev/etherd/e1.1" and have a look at
<br>block 0.<br>The gfs_edit tool starts you out on block 0x10 (the superblock), so<br>you'll have to do 16<br>"b" keystrokes or else arrow up and change block number to 0 and press<br>enter.  The first<br>16 blocks of the file system should be all zeros, 0x00.  If they look
<br>like a bunch of numbers<br>instead, then maybe somebody overwrote your file system.  BTW, gfs_edit<br>is a dangerous<br>tool so don't change anything with it.<br><br>Regards,<br><br>Bob Peterson<br>Red Hat Cluster Suite
<br><br>--<br>Linux-cluster mailing list<br><a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br><a href="https://www.redhat.com/mailman/listinfo/linux-cluster">https://www.redhat.com/mailman/listinfo/linux-cluster
</a><br></blockquote></div><br>