<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<HTML><HEAD>
<META http-equiv=Content-Type content="text/html; charset=us-ascii">
<META content="MSHTML 6.00.2900.3086" name=GENERATOR></HEAD>
<BODY>
<DIV dir=ltr align=left><SPAN class=165100621-10092007><FONT face=Arial 
color=#0000ff size=2>Hi</FONT></SPAN></DIV>
<DIV dir=ltr align=left><SPAN class=165100621-10092007><FONT face=Arial 
color=#0000ff size=2></FONT></SPAN> </DIV>
<DIV dir=ltr align=left><SPAN class=165100621-10092007><FONT face=Arial 
color=#0000ff size=2>When you are on RHEL4.5 then I highly suggest you to use 
the new glock_purge Parameter for every gfs Filesystem add to 
/etc/rc.local</FONT></SPAN></DIV>
<DIV dir=ltr align=left><SPAN class=165100621-10092007><FONT face=Arial 
color=#0000ff size=2>-------</FONT></SPAN></DIV>
<DIV dir=ltr align=left><SPAN class=165100621-10092007><FONT face=Arial 
color=#0000ff size=2>gfs_tool settune / glock_purge 50<BR>gfs_tool settune 
/scratch glock_purge 50<BR>-------</FONT></SPAN></DIV>
<DIV dir=ltr align=left><SPAN class=165100621-10092007><FONT face=Arial 
color=#0000ff size=2></FONT></SPAN> </DIV>
<DIV dir=ltr align=left><SPAN class=165100621-10092007><FONT face=Arial 
color=#0000ff size=2>also this Parameter has to set new on every mount. That 
mean when you umount it and then mount it again, run the /etc/rc.local again, 
otherway the parameter are gone!</FONT></SPAN></DIV>
<DIV dir=ltr align=left><SPAN class=165100621-10092007><FONT face=Arial 
color=#0000ff size=2></FONT></SPAN> </DIV>
<DIV dir=ltr align=left><SPAN class=165100621-10092007><FONT face=Arial 
color=#0000ff size=2>maybe also checkout this page --> <A 
href="http://www.open-sharedroot.org/Members/marc/blog/blog-on-gfs/glock-trimming-patch">http://www.open-sharedroot.org/Members/marc/blog/blog-on-gfs/glock-trimming-patch</A></FONT></SPAN></DIV>
<DIV dir=ltr align=left><SPAN class=165100621-10092007><FONT face=Arial 
color=#0000ff size=2></FONT></SPAN> </DIV>
<DIV dir=ltr align=left><SPAN class=165100621-10092007><FONT face=Arial 
color=#0000ff size=2>mike</FONT></SPAN></DIV><BR>
<DIV class=OutlookMessageHeader lang=en-us dir=ltr align=left>
<HR tabIndex=-1>
<FONT face=Tahoma size=2><B>From:</B> linux-cluster-bounces@redhat.com 
[mailto:linux-cluster-bounces@redhat.com] <B>On Behalf Of </B>Claudio 
Tassini<BR><B>Sent:</B> Montag, 10. September 2007 13:19<BR><B>To:</B> linux 
clustering<BR><B>Subject:</B> [Linux-cluster] GFS: drop_count and drop_period 
tuning<BR></FONT><BR></DIV>
<DIV></DIV>Hi all,
<DIV><BR class=webkit-block-placeholder></DIV>
<DIV>I have a four-nodes GFS cluster on RH 4.5 (last versions, updated 
yesterday). There are three GFS filesystems ( 1 TB, 450 GB and 5GB), serving 
some mail domains with postfix/courier imap in a "maildir" configuration. </DIV>
<DIV><BR class=webkit-block-placeholder></DIV>
<DIV>As you can suspect, this is not exactly the best for GFS: we have a lot 
(thousands) of very small files (emails) in a very lot of directories. I'm 
trying to tune up things to reach the best performance. I found that tuning the 
drop_count parameter in /proc/cluster/lock_dlm/drop_period , setting it to a 
very large value (it was 500000 and now, after a memory upgrade, I've set it to 
1500000 ), uses a lot of memory (about 10GB out of 16 that I've installed in 
every machine) and seems to "boost" performance limiting the iowait CPU usage. 
</DIV>
<DIV><BR class=webkit-block-placeholder></DIV>
<DIV>The bad thing is that when I umount a filesystem, it must clean up all that 
locks (I think), and sometimes it causes problems to the whole cluster, with the 
other nodes that stop writes to the filesystem while I'm umounting on one node 
only.  </DIV>
<DIV>Is this normal? How can I tune this to clean memory faster when I umount 
the FS? I've read something about setting more gfs_glockd daemons per fs with 
the num_glockd mount option, but it seems to be quite deprecated because it 
shouldn't be necessary.. </DIV>
<DIV><BR class=webkit-block-placeholder></DIV>
<DIV><BR clear=all><BR>-- <BR>Claudio Tassini </DIV></BODY></HTML>