<div dir="ltr">Again thanks for the fast and prompt response Bob.<br><br>I restored nodes to the healthy state and they can access GFS volumes. <br>node3:<br>service gfs status<br>Configured GFS mountpoints: <br>/lvm_test1<br>
/lvm_test2<br>Active GFS mountpoints: <br>/lvm_test1<br>/lvm_test2<br><br>node4:<br>service gfs status<br>Configured GFS mountpoints: <br>/lvm_test1<br>/lvm_test2<br>Active GFS mountpoints: <br>/lvm_test1<br>/lvm_test2<br>
<br>node2 - lucy node:<br>service gfs status<br>Configured GFS mountpoints: <br>/lvm_test1<br>/lvm_test2<br>Active GFS mountpoints: <br>/lvm_test1<br>/lvm_test2<br><br><br>I will try to reproduce the problem with gfs_grow.<br>
<br>One more question regarding GFS - what steps would you recommend (if any) for growing and shrinking active GFS volume?<br><br><div class="gmail_quote">On Fri, Sep 26, 2008 at 12:44 PM, Bob Peterson <span dir="ltr"><<a href="mailto:rpeterso@redhat.com">rpeterso@redhat.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div class="Ih2E3d">----- "Alan A" <<a href="mailto:alan.zg@gmail.com">alan.zg@gmail.com</a>> wrote:<br>

</div><div class="Ih2E3d">| Thanks again, Bob.<br>
|<br>
| No kernel-panic on any of the nodes. I had to cold boot all 3 nodes in<br>
| order<br>
| to get the cluster going (might have been a fence issue but am not<br>
| 100%<br>
| sure, since we use only SCSI fencing until we agree on secondary<br>
| fencing<br>
| method). What is 'scary' is that gfs_grow command paralized that<br>
| volume on<br>
| all 3 nodes, and I coldn't access, nor unmount, nor run gfs_fsck, from<br>
| any<br>
| of the nodes. We will do more testing on this, btw do you have<br>
| suggested<br>
| "safe" method of growing and shrinking the volume other than what is<br>
| noted<br>
| in 5.2 documentation (since we followed the RHEL manual). If the GFS<br>
| volume<br>
| hangs - what is the best way to try and unmount it from the node,<br>
| would<br>
| 'gfs_freeze' helped)?<br>
<br>
</div>Hi Alan,<br>
<br>
No, gfs_freeze won't help.  In these cases, it's probably best to<br>
reboot the node that caused the problem, by /sbin/reboot -fin or<br>
throwing the power switch I think.  I suspect that clvmd status<br>
hung because of the earlier problem.<br>
<br>
I'm not aware of any problems in your version of gfs_grow that can<br>
cause this kind of lockup.  It's designed to be run seamlessly while<br>
other processes are using the file system, and that's the kind of<br>
thing we test regularly.<br>
<br>
If you figure out how to recreate the lockup, let me know so I<br>
can try it out.  Of course, if this is a production cluster, I<br>
would not take it out of production a long time to try this.<br>
But if I can recreate the problem here, I'll file a bugzilla<br>
record and get it fixed.<br>
<div><div></div><div class="Wj3C7c"><br>
Regards,<br>
<br>
Bob Peterson<br>
Red Hat Clustering & GFS<br>
<br>
--<br>
Linux-cluster mailing list<br>
<a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>Alan A.<br>
</div>