If in gfs2 glocks are purged based upon memory constraints, what happens if it is run on a box with large amounts of memory? i.e. RHEL5.x with 128gb ram?  We ended up having to move away from GFS2 due to serious performance issues with this exact setup, and our performance issues were largely centered around commands like ls or rm against gfs2 filesystems with large directory structures and millions of files in them.<br>
<br>In our case, something as simple as copying a whole filesystem to another filesystem would cause a load avg of 50 or more, and would take 8+ hours to complete.  The same thing on NFS or ext3 would take usually 1 to 2 hours.  Netbackup of 10 of those filesystems took ~40 hours to complete, so we were getting maybe 1 good backup per week, and in some cases the backup itself caused cluster crash.<br>
<br>We are still using our GFS1 clusters, since as long as their network is stable, their performance is very good, but we are phasing out most of our GFS2 clusters to NFS instead.<br><br><div class="gmail_quote">On Fri, Oct 9, 2009 at 1:01 PM, Steven Whitehouse <span dir="ltr"><<a href="mailto:swhiteho@redhat.com">swhiteho@redhat.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Hi,<br>
<div><div></div><div class="h5"><br>
On Fri, 2009-10-09 at 09:55 -0700, Scooter Morris wrote:<br>
> Hi all,<br>
>     On RHEL 5.3/5.4(?) we had changed the value of demote_secs to<br>
> significantly improve the performance of our gfs2 filesystem for certain<br>
> tasks (notably rm -r on large directories).  I recently noticed that<br>
> that tuning value is no longer available (part of a recent update, or<br>
> part of 5.4?).  Can someone tell me what, if anything replaces this?  Is<br>
> it now a mount option, or is there some other way to tune this value?<br>
><br>
> Thanks in advance.<br>
><br>
> -- scooter<br>
><br>
</div></div>> --<br>
> Linux-cluster mailing list<br>
> <a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
<br>
Nothing replaces it. The glocks are disposed of automatically on an LRU<br>
basis when there is enough memory pressure to require it. You can alter<br>
the amount of memory pressure on the VFS caches (including the glocks)<br>
but not specifically the glocks themselves.<br>
<br>
The idea is that is should be self-tuning now, adjusting itself to the<br>
conditions prevailing at the time. If there are any remaining<br>
performance issues though, we'd like to know so that they can be<br>
addressed,<br>
<br>
Steve.<br>
<font color="#888888"><br>
<br>
--<br>
Linux-cluster mailing list<br>
<a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
</font></blockquote></div><br>