<table cellspacing="0" cellpadding="0" border="0" ><tr><td valign="top" style="font: inherit;"><DIV>I have tried the following:</DIV>
<DIV> </DIV>
<DIV>nfs-exported the gfs2 file system, and a nfs client mounted it. It worked.</DIV>
<DIV> </DIV>
<DIV>john</DIV>
<DIV> </DIV>
<DIV>------------------------------<BR><BR>Message: 4<BR>Date: Fri, 09 Apr 2010 10:01:51 +0100<BR>From: Steven Whitehouse <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=swhiteho@redhat.com" ymailto="mailto:swhiteho@redhat.com">swhiteho@redhat.com</A>><BR>To: linux clustering <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=linux-cluster@redhat.com" ymailto="mailto:linux-cluster@redhat.com">linux-cluster@redhat.com</A>><BR>Subject: Re: [Linux-cluster] mounting gfs volumes outside a cluster?<BR>Message-ID: <1270803711.2753.4.camel@localhost><BR>Content-Type: text/plain; charset="UTF-8"<BR><BR>Hi,<BR><BR>On Fri, 2010-04-09 at 10:28 +0200, Matthias Leopold wrote:<BR>> hi,<BR>> <BR>> is it possible to mount a gfs volume readonly from outside the cluster<BR>> (while the cluster is up and all nodes do I/O)?<BR>> <BR><BR>No. There is a "spectator" mount where a read only node can mount<BR>without having a journal
 assigned to it, but it must still be part of<BR>the cluster,<BR><BR>Steve.<BR><BR><BR><BR><BR>------------------------------<BR><BR><BR>--- On <B>Fri, 4/9/10, linux-cluster-request@redhat.com <I><linux-cluster-request@redhat.com></I></B> wrote:<BR></DIV>
<BLOCKQUOTE style="PADDING-LEFT: 5px; MARGIN-LEFT: 5px; BORDER-LEFT: rgb(16,16,255) 2px solid"><BR>From: linux-cluster-request@redhat.com <linux-cluster-request@redhat.com><BR>Subject: Linux-cluster Digest, Vol 72, Issue 9<BR>To: linux-cluster@redhat.com<BR>Date: Friday, April 9, 2010, 9:00 AM<BR><BR>
<DIV class=plainMail>Send Linux-cluster mailing list submissions to<BR>    <A href="http://us.mc519.mail.yahoo.com/mc/compose?to=linux-cluster@redhat.com" ymailto="mailto:linux-cluster@redhat.com">linux-cluster@redhat.com</A><BR><BR>To subscribe or unsubscribe via the World Wide Web, visit<BR>    <A href="https://www.redhat.com/mailman/listinfo/linux-cluster" target=_blank>https://www.redhat.com/mailman/listinfo/linux-cluster</A><BR>or, via email, send a message with subject or body 'help' to<BR>    <A href="http://us.mc519.mail.yahoo.com/mc/compose?to=linux-cluster-request@redhat.com" ymailto="mailto:linux-cluster-request@redhat.com">linux-cluster-request@redhat.com</A><BR><BR>You can reach the person managing the list at<BR>    <A href="http://us.mc519.mail.yahoo.com/mc/compose?to=linux-cluster-owner@redhat.com"
 ymailto="mailto:linux-cluster-owner@redhat.com">linux-cluster-owner@redhat.com</A><BR><BR>When replying, please edit your Subject line so it is more specific<BR>than "Re: Contents of Linux-cluster digest..."<BR><BR><BR>Today's Topics:<BR><BR>   1. Re: GFS2 and D state HTTPD processes (Ricardo Arg?ello)<BR>   2. mounting gfs volumes outside a cluster? (Matthias Leopold)<BR>   3. Re: "openais[XXXX]" [TOTEM] Retransmit List: XXXXX"    in<BR>      /var/log/messages (Bernard Chew)<BR>   4. Re: mounting gfs volumes outside a cluster? (Steven Whitehouse)<BR>   5. Re: mounting gfs volumes outside a cluster? (Bernard Chew)<BR>   6. Re: mounting gfs volumes outside a cluster? (Matthias Leopold)<BR>   7. Clustering and Cluster-Storage channels (frank)<BR>   8. Cluster 3.0.10 stable release (Fabio M. Di
 Nitto)<BR>   9. Re: Clustering and Cluster-Storage channels (Carlos Maiolino)<BR><BR><BR>----------------------------------------------------------------------<BR><BR>Message: 1<BR>Date: Fri, 9 Apr 2010 00:02:37 -0500<BR>From: Ricardo Arg?ello <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=ricardo@fedoraproject.org" ymailto="mailto:ricardo@fedoraproject.org">ricardo@fedoraproject.org</A>><BR>To: linux clustering <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=linux-cluster@redhat.com" ymailto="mailto:linux-cluster@redhat.com">linux-cluster@redhat.com</A>><BR>Subject: Re: [Linux-cluster] GFS2 and D state HTTPD processes<BR>Message-ID:<BR>    <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=u2q500f0ca01004082202kfea51f14ved10273ba3c005e0@mail.gmail.com"
 ymailto="mailto:u2q500f0ca01004082202kfea51f14ved10273ba3c005e0@mail.gmail.com">u2q500f0ca01004082202kfea51f14ved10273ba3c005e0@mail.gmail.com</A>><BR>Content-Type: text/plain; charset=UTF-8<BR><BR>Looks like this bug:<BR><BR>GFS2 - probably lost glock call back<BR><A href="https://bugzilla.redhat.com/show_bug.cgi?id=498976" target=_blank>https://bugzilla.redhat.com/show_bug.cgi?id=498976</A><BR><BR>This is fixed in the kernel included in RHEL 5.5.<BR>Do a "yum update" to fix it.<BR><BR>Ricardo Arguello<BR><BR>On Tue, Mar 2, 2010 at 6:10 AM, Emilio Arjona <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=emilio.ah@gmail.com" ymailto="mailto:emilio.ah@gmail.com">emilio.ah@gmail.com</A>> wrote:<BR>> Thanks for your response, Steve.<BR>><BR>> 2010/3/2 Steven Whitehouse <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=swhiteho@redhat.com" ymailto="mailto:swhiteho@redhat.com">swhiteho@redhat.com</A>>:<BR>>>
 Hi,<BR>>><BR>>> On Fri, 2010-02-26 at 16:52 +0100, Emilio Arjona wrote:<BR>>>> Hi,<BR>>>><BR>>>> we are experiencing some problems commented in an old thread:<BR>>>><BR>>>> <A href="http://www.mail-archive.com/linux-cluster@redhat.com/msg07091.html" target=_blank>http://www.mail-archive.com/linux-cluster@redhat.com/msg07091.html</A><BR>>>><BR>>>> We have 3 clustered servers under Red Hat 5.4 accessing a GFS2 resource.<BR>>>><BR>>>> fstab options:<BR>>>> /dev/vg_cluster/lv_cluster /opt/datacluster gfs2<BR>>>> defaults,noatime,nodiratime,noquota 0 0<BR>>>><BR>>>> GFS options:<BR>>>> plock_rate_limit="0"<BR>>>> plock_ownership=1<BR>>>><BR>>>> httpd processes run into D status sometimes and the only solution is<BR>>>> hard reset the affected server.<BR>>>><BR>>>> Can
 anyone give me some hints to diagnose the problem?<BR>>>><BR>>>> Thanks :)<BR>>>><BR>>> Can you give me a rough idea of what the actual workload is and how it<BR>>> is distributed amoung the director(y/ies) ?<BR>><BR>> We had problems with php sessions in the past but we fixed it by<BR>> configuring php to store the sessions in the database instead of in<BR>> the GFS filesystem. Now, we're having problems with files and<BR>> directories in the "data" folder of Moodle LMS.<BR>><BR>> "lsof -p" returned a i/o operation over the same folder in 2/3 nodes,<BR>> we did a hard reset of these nodes but some hours after the CPU load<BR>> grew up again, specially in the node that wasn't rebooted. We decided<BR>> to reboot (v?a ssh) this node, then the CPU load went down to normal<BR>> values in all nodes.<BR>><BR>> I don't think the system's load is high enough to produce
 concurrent<BR>> access problems. It's more likely to be some misconfiguration, in<BR>> fact, we changed some GFS2 options to non default values to increase<BR>> performance (<A href="http://www.linuxdynasty.org/howto-increase-gfs2-performance-in-a-cluster.html" target=_blank>http://www.linuxdynasty.org/howto-increase-gfs2-performance-in-a-cluster.html</A>).<BR>><BR>>><BR>>> This is often down to contention on glocks (one per inode) and maybe<BR>>> because there is a process of processes writing a file or directory<BR>>> which is in use (either read-only or writable) by other processes.<BR>>><BR>>> If you are using php, then you might have to strace it to find out what<BR>>> it is really doing,<BR>><BR>> Ok, we will try to strace the D processes and post the results. Hope<BR>> we find something!!<BR>><BR>>><BR>>> Steve.<BR>>><BR>>>>
 --<BR>>>><BR>>>> Emilio Arjona.<BR>>>><BR>>>> --<BR>>>> Linux-cluster mailing list<BR>>>> <A href="http://us.mc519.mail.yahoo.com/mc/compose?to=Linux-cluster@redhat.com" ymailto="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</A><BR>>>> <A href="https://www.redhat.com/mailman/listinfo/linux-cluster" target=_blank>https://www.redhat.com/mailman/listinfo/linux-cluster</A><BR>>><BR>>><BR>>> --<BR>>> Linux-cluster mailing list<BR>>> <A href="http://us.mc519.mail.yahoo.com/mc/compose?to=Linux-cluster@redhat.com" ymailto="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</A><BR>>> <A href="https://www.redhat.com/mailman/listinfo/linux-cluster" target=_blank>https://www.redhat.com/mailman/listinfo/linux-cluster</A><BR>>><BR>><BR>><BR>><BR>> --<BR>> Emilio Arjona.<BR>><BR>> --<BR>> Linux-cluster mailing list<BR>>
 <A href="http://us.mc519.mail.yahoo.com/mc/compose?to=Linux-cluster@redhat.com" ymailto="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</A><BR>> <A href="https://www.redhat.com/mailman/listinfo/linux-cluster" target=_blank>https://www.redhat.com/mailman/listinfo/linux-cluster</A><BR>><BR><BR><BR><BR>------------------------------<BR><BR>Message: 2<BR>Date: Fri, 09 Apr 2010 10:28:34 +0200<BR>From: Matthias Leopold <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=matthias@aic.at" ymailto="mailto:matthias@aic.at">matthias@aic.at</A>><BR>To: linux clustering <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=linux-cluster@redhat.com" ymailto="mailto:linux-cluster@redhat.com">linux-cluster@redhat.com</A>><BR>Subject: [Linux-cluster] mounting gfs volumes outside a cluster?<BR>Message-ID: <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=4BBEE532.2090408@aic.at"
 ymailto="mailto:4BBEE532.2090408@aic.at">4BBEE532.2090408@aic.at</A>><BR>Content-Type: text/plain; charset=ISO-8859-15<BR><BR>hi,<BR><BR>is it possible to mount a gfs volume readonly from outside the cluster<BR>(while the cluster is up and all nodes do I/O)?<BR><BR>-- <BR>Mit freundlichen Gr?ssen<BR><BR>Matthias Leopold<BR>System & Network Administration<BR><BR>Streams Telecommunications GmbH<BR>Universitaetsstrasse 10/7, 1090 Vienna, Austria<BR><BR>tel: +43 1 40159113<BR>fax: +43 1 40159300<BR>------------------------------------------------<BR><BR><BR><BR>------------------------------<BR><BR>Message: 3<BR>Date: Fri, 9 Apr 2010 16:51:52 +0800<BR>From: Bernard Chew <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=bernardchew@gmail.com" ymailto="mailto:bernardchew@gmail.com">bernardchew@gmail.com</A>><BR>To: <A href="http://us.mc519.mail.yahoo.com/mc/compose?to=sdake@redhat.com" ymailto="mailto:sdake@redhat.com">sdake@redhat.com</A>,
 linux clustering <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=linux-cluster@redhat.com" ymailto="mailto:linux-cluster@redhat.com">linux-cluster@redhat.com</A>><BR>Subject: Re: [Linux-cluster] "openais[XXXX]" [TOTEM] Retransmit List:<BR>    XXXXX"    in /var/log/messages<BR>Message-ID:<BR>    <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=l2v95994e3c1004090151g98af9de7q2746aefd0022db04@mail.gmail.com" ymailto="mailto:l2v95994e3c1004090151g98af9de7q2746aefd0022db04@mail.gmail.com">l2v95994e3c1004090151g98af9de7q2746aefd0022db04@mail.gmail.com</A>><BR>Content-Type: text/plain; charset=ISO-8859-1<BR><BR>> On Thu, Apr 8, 2010 at 12:58 AM, Steven Dake <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=sdake@redhat.com" ymailto="mailto:sdake@redhat.com">sdake@redhat.com</A>> wrote:<BR>> On Wed, 2010-04-07 at 18:52 +0800, Bernard Chew wrote:<BR>>> Hi
 all,<BR>>><BR>>> I noticed "openais[XXXX]" [TOTEM] Retransmit List: XXXXX" repeated<BR>>> every few hours in /var/log/messages. What does the message mean and<BR>>> is it normal? Will this cause fencing to take place eventually?<BR>>><BR>> This means your network environment dropped packets and totem is<BR>> recovering them. ?This is normal operation, and in future versions such<BR>> as corosync no notification is printed when recovery takes place.<BR>><BR>> There is a bug, however, fixed in revision 2122 where if the last packet<BR>> in the order is lost, and no new packets are unlost after it, the<BR>> processor will enter a failed to receive state and trigger fencing.<BR>><BR>> Regards<BR>> -steve<BR>>> Thank you in advance.<BR>>><BR>>> Regards,<BR>>> Bernard Chew<BR>>><BR>>> --<BR>>> Linux-cluster mailing list<BR>>> <A
 href="http://us.mc519.mail.yahoo.com/mc/compose?to=Linux-cluster@redhat.com" ymailto="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</A><BR>>> <A href="https://www.redhat.com/mailman/listinfo/linux-cluster" target=_blank>https://www.redhat.com/mailman/listinfo/linux-cluster</A><BR>><BR>> --<BR>> Linux-cluster mailing list<BR>> <A href="http://us.mc519.mail.yahoo.com/mc/compose?to=Linux-cluster@redhat.com" ymailto="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</A><BR>> <A href="https://www.redhat.com/mailman/listinfo/linux-cluster" target=_blank>https://www.redhat.com/mailman/listinfo/linux-cluster</A><BR>><BR><BR>Thank you for the reply Steve!<BR><BR>The cluster was running fine until last week where 3 nodes restarted<BR>suddenly. I suspect fencing took place since all 3 servers restarted<BR>at the same time but I couldn't find any fence related entries in the<BR>log. I am guessing we hit the bug you
 mentioned? Will the log indicate<BR>fencing has taken place with regards to the bug you mentioned?<BR><BR>Also I noticed the message "kernel: clustat[28328]: segfault at<BR>0000000000000024 rip 0000003b31c75bc0 rsp 00007fff955cb098 error 4"<BR>occasionally; is this related to the TOTEM message or they indicate<BR>another problem?<BR><BR>Regards,<BR>Bernard Chew<BR><BR><BR><BR>------------------------------<BR><BR>Message: 4<BR>Date: Fri, 09 Apr 2010 10:01:51 +0100<BR>From: Steven Whitehouse <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=swhiteho@redhat.com" ymailto="mailto:swhiteho@redhat.com">swhiteho@redhat.com</A>><BR>To: linux clustering <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=linux-cluster@redhat.com" ymailto="mailto:linux-cluster@redhat.com">linux-cluster@redhat.com</A>><BR>Subject: Re: [Linux-cluster] mounting gfs volumes outside a cluster?<BR>Message-ID:
 <1270803711.2753.4.camel@localhost><BR>Content-Type: text/plain; charset="UTF-8"<BR><BR>Hi,<BR><BR>On Fri, 2010-04-09 at 10:28 +0200, Matthias Leopold wrote:<BR>> hi,<BR>> <BR>> is it possible to mount a gfs volume readonly from outside the cluster<BR>> (while the cluster is up and all nodes do I/O)?<BR>> <BR><BR>No. There is a "spectator" mount where a read only node can mount<BR>without having a journal assigned to it, but it must still be part of<BR>the cluster,<BR><BR>Steve.<BR><BR><BR><BR><BR>------------------------------<BR><BR>Message: 5<BR>Date: Fri, 9 Apr 2010 17:04:33 +0800<BR>From: Bernard Chew <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=bernardchew@gmail.com" ymailto="mailto:bernardchew@gmail.com">bernardchew@gmail.com</A>><BR>To: linux clustering <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=linux-cluster@redhat.com"
 ymailto="mailto:linux-cluster@redhat.com">linux-cluster@redhat.com</A>><BR>Subject: Re: [Linux-cluster] mounting gfs volumes outside a cluster?<BR>Message-ID:<BR>    <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=i2z95994e3c1004090204qba01e4b7p77a8983132e4e7f1@mail.gmail.com" ymailto="mailto:i2z95994e3c1004090204qba01e4b7p77a8983132e4e7f1@mail.gmail.com">i2z95994e3c1004090204qba01e4b7p77a8983132e4e7f1@mail.gmail.com</A>><BR>Content-Type: text/plain; charset=ISO-8859-1<BR><BR>> On Fri, Apr 9, 2010 at 4:28 PM, Matthias Leopold <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=matthias@aic.at" ymailto="mailto:matthias@aic.at">matthias@aic.at</A>> wrote:<BR>> hi,<BR>><BR>> is it possible to mount a gfs volume readonly from outside the cluster<BR>> (while the cluster is up and all nodes do I/O)?<BR>><BR>> --<BR>> Mit freundlichen Gr?ssen<BR>><BR>> Matthias Leopold<BR>> System &
 Network Administration<BR>><BR>> Streams Telecommunications GmbH<BR>> Universitaetsstrasse 10/7, 1090 Vienna, Austria<BR>><BR>> tel: +43 1 40159113<BR>> fax: +43 1 40159300<BR>> ------------------------------------------------<BR>><BR>> --<BR>> Linux-cluster mailing list<BR>> <A href="http://us.mc519.mail.yahoo.com/mc/compose?to=Linux-cluster@redhat.com" ymailto="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</A><BR>> <A href="https://www.redhat.com/mailman/listinfo/linux-cluster" target=_blank>https://www.redhat.com/mailman/listinfo/linux-cluster</A><BR>><BR><BR>Hi Matthias,<BR><BR>I am not the expert here but how about exporting the GFS volume using NFS?<BR><BR>Regards,<BR>Bernard<BR><BR><BR><BR>------------------------------<BR><BR>Message: 6<BR>Date: Fri, 09 Apr 2010 12:31:55 +0200<BR>From: Matthias Leopold <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=matthias@aic.at"
 ymailto="mailto:matthias@aic.at">matthias@aic.at</A>><BR>To: linux clustering <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=linux-cluster@redhat.com" ymailto="mailto:linux-cluster@redhat.com">linux-cluster@redhat.com</A>><BR>Subject: Re: [Linux-cluster] mounting gfs volumes outside a cluster?<BR>Message-ID: <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=4BBF021B.3090205@aic.at" ymailto="mailto:4BBF021B.3090205@aic.at">4BBF021B.3090205@aic.at</A>><BR>Content-Type: text/plain; charset=ISO-8859-1<BR><BR>Bernard Chew schrieb:<BR>>> On Fri, Apr 9, 2010 at 4:28 PM, Matthias Leopold <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=matthias@aic.at" ymailto="mailto:matthias@aic.at">matthias@aic.at</A>> wrote:<BR>>> hi,<BR>>><BR>>> is it possible to mount a gfs volume readonly from outside the cluster<BR>>> (while the cluster is up and all nodes do I/O)?<BR>>><BR>>>
 --<BR>>> Mit freundlichen Gr?ssen<BR>>><BR>>> Matthias Leopold<BR>>> System & Network Administration<BR>>><BR>>> Streams Telecommunications GmbH<BR>>> Universitaetsstrasse 10/7, 1090 Vienna, Austria<BR>>><BR>>> tel: +43 1 40159113<BR>>> fax: +43 1 40159300<BR>>> ------------------------------------------------<BR>>><BR>>> --<BR>>> Linux-cluster mailing list<BR>>> <A href="http://us.mc519.mail.yahoo.com/mc/compose?to=Linux-cluster@redhat.com" ymailto="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</A><BR>>> <A href="https://www.redhat.com/mailman/listinfo/linux-cluster" target=_blank>https://www.redhat.com/mailman/listinfo/linux-cluster</A><BR>>><BR>> <BR>> Hi Matthias,<BR>> <BR>> I am not the expert here but how about exporting the GFS volume using NFS?<BR>> <BR>> Regards,<BR>> Bernard<BR>> <BR>> --<BR>>
 Linux-cluster mailing list<BR>> <A href="http://us.mc519.mail.yahoo.com/mc/compose?to=Linux-cluster@redhat.com" ymailto="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</A><BR>> <A href="https://www.redhat.com/mailman/listinfo/linux-cluster" target=_blank>https://www.redhat.com/mailman/listinfo/linux-cluster</A><BR><BR>that's an nice idea,thx<BR>at second glance this indeed seems to be a viable solution<BR><BR>regards,<BR>matthias<BR><BR><BR><BR><BR>------------------------------<BR><BR>Message: 7<BR>Date: Fri, 09 Apr 2010 13:39:21 +0200<BR>From: frank <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=frank@si.ct.upc.edu" ymailto="mailto:frank@si.ct.upc.edu">frank@si.ct.upc.edu</A>><BR>To: <A href="http://us.mc519.mail.yahoo.com/mc/compose?to=linux-cluster@redhat.com" ymailto="mailto:linux-cluster@redhat.com">linux-cluster@redhat.com</A><BR>Subject: [Linux-cluster] Clustering and Cluster-Storage channels<BR>Message-ID: <<A
 href="http://us.mc519.mail.yahoo.com/mc/compose?to=4BBF11E9.803@si.ct.upc.edu" ymailto="mailto:4BBF11E9.803@si.ct.upc.edu">4BBF11E9.803@si.ct.upc.edu</A>><BR>Content-Type: text/plain; charset=ISO-8859-1; format=flowed<BR><BR>Hi,<BR>we have several machines with RH 5.4 and we use Cluster and <BR>Cluster-Storage (because we use GFS).<BR>We also have troubles in updates because we don't know how to subscribe <BR>out machines to that channels. From RHN, in "Software Channel <BR>Subscriptions" part, we see:<BR><BR>Release Channels for Red Hat Enterprise Linux 5 for x86_64<BR>     RHEL FasTrack (v. 5 for 64-bit x86_64) (Channel Details)     <BR>Consumes a regular entitlement (13 available)<BR>     RHEL Optional Productivity Apps (v. 5 for 64-bit x86_64) (Channel <BR>Details)     Consumes a regular entitlement (13 available)<BR>     RHEL Supplementary (v. 5
 for 64-bit x86_64) (Channel Details)     <BR>Consumes a regular entitlement (13 available)<BR>     RHEL Virtualization (v. 5 for 64-bit x86_64) (Channel Details)     <BR>Consumes a regular entitlement (9 available)<BR>     Red Hat Network Tools for RHEL Server (v.5 64-bit x86_64) (Channel <BR>Details)     Consumes a regular entitlement (10 available)<BR>BETA Channels for Red Hat Enterprise Linux 5 for x86_64<BR>     RHEL Optional Productivity Apps (v. 5 for 64-bit x86_64) Beta <BR>(Channel Details)     Consumes a regular entitlement (13 available)<BR>     RHEL Supplementary (v. 5 for 64-bit x86_64) Beta (Channel Details) <BR>     Consumes a regular entitlement (13 available)<BR>     RHEL Virtualization (v. 5 for 64-bit x86_64) Beta (Channel Details)
 <BR>     Consumes a regular entitlement (13 available)<BR>     Red Hat Enterprise Linux (v. 5 for 64-bit x86_64) Beta (Channel <BR>Details)     Consumes a regular entitlement (13 available)<BR>Additional Services Channels for Red Hat Enterprise Linux 5 for x86_64<BR>     RHEL Hardware Certification (v. 5 for 64-bit x86_64) (Channel <BR>Details)     Consumes a regular entitlement (13 available)<BR>Additional Services BETA Channels for Red Hat Enterprise Linux 5 for x86_64<BR>     RHEL Cluster-Storage (v. 5 for 64-bit x86_64) Beta (Channel <BR>Details)     Consumes a regular entitlement (10 available)<BR>     RHEL Clustering (v. 5 for 64-bit x86_64) Beta (Channel Details)     <BR>Consumes a regular entitlement (10 available)<BR>     RHEL Hardware
 Certification (v. 5 for 64-bit x86_64) Beta (Channel <BR>Details)     Consumes a regular entitlement (13 available)<BR><BR>Thera are cluster beta channels, but not the release ones. How can we <BR>subscribe systems to them?<BR><BR>Thanks and Regards.<BR><BR>Frank<BR><BR>-- <BR>Aquest missatge ha estat analitzat per MailScanner<BR>a la cerca de virus i d'altres continguts perillosos,<BR>i es considera que est? net.<BR><BR><BR><BR>------------------------------<BR><BR>Message: 8<BR>Date: Fri, 09 Apr 2010 14:05:27 +0200<BR>From: "Fabio M. Di Nitto" <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=fdinitto@redhat.com" ymailto="mailto:fdinitto@redhat.com">fdinitto@redhat.com</A>><BR>To: linux clustering <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=linux-cluster@redhat.com" ymailto="mailto:linux-cluster@redhat.com">linux-cluster@redhat.com</A>>,    cluster-devel<BR>    <<A
 href="http://us.mc519.mail.yahoo.com/mc/compose?to=cluster-devel@redhat.com" ymailto="mailto:cluster-devel@redhat.com">cluster-devel@redhat.com</A>><BR>Subject: [Linux-cluster] Cluster 3.0.10 stable release<BR>Message-ID: <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=4BBF1807.6030004@redhat.com" ymailto="mailto:4BBF1807.6030004@redhat.com">4BBF1807.6030004@redhat.com</A>><BR>Content-Type: text/plain; charset=ISO-8859-1<BR><BR>-----BEGIN PGP SIGNED MESSAGE-----<BR>Hash: SHA1<BR><BR>The cluster team and its community are proud to announce the 3.0.10<BR>stable release from the STABLE3 branch.<BR><BR>This release contains a few major bug fixes. We strongly recommend<BR>people to update their clusters.<BR><BR>In order to build/run the 3.0.10 release you will need:<BR><BR>- - corosync 1.2.1<BR>- - openais 1.1.2<BR>- - linux kernel 2.6.31 (only for GFS1 users)<BR><BR>The new source tarball can be downloaded here:<BR><BR><A
 href="https://fedorahosted.org/releases/c/l/cluster/cluster-3.0.10.tar.bz2" target=_blank>https://fedorahosted.org/releases/c/l/cluster/cluster-3.0.10.tar.bz2</A><BR><BR>To report bugs or issues:<BR><BR>   <A href="https://bugzilla.redhat.com/" target=_blank>https://bugzilla.redhat.com/</A><BR><BR>Would you like to meet the cluster team or members of its community?<BR><BR>   Join us on IRC (irc.freenode.net #linux-cluster) and share your<BR>   experience  with other sysadministrators or power users.<BR><BR>Thanks/congratulations to all people that contributed to achieve this<BR>great milestone.<BR><BR>Happy clustering,<BR>Fabio<BR><BR>Under the hood (from 3.0.9):<BR><BR>Abhijith Das (5):<BR>      gfs2_quota: Fix gfs2_quota to handle boundary conditions<BR>      gfs2_convert: gfs2_convert segfaults when converting filesystems<BR>of blocksize 512 bytes<BR>     
 gfs2_convert: gfs2_convert uses too much memory for jdata conversion<BR>      gfs2_convert: Fix conversion of gfs1 CDPNs<BR>      gfs2_convert: Doesn't convert indirectly-pointed extended<BR>attributes correctly<BR><BR>Bob Peterson (3):<BR>      gfs2: GFS2 utilities should make use of exported device topology<BR>      cman: gfs_controld dm suspend hangs withdrawn GFS file system<BR>      GFS2: fsck.gfs2 segfault - osi_tree "each_safe" patch<BR><BR>Christine Caulfield (3):<BR>      cman: Add improved cluster_id hash function<BR>      cman: move fnv hash function into its own file<BR>      ccs: Remove non-existant commands from ccs_tool man page.<BR><BR>David Teigland (7):<BR>      dlm_controld/libdlmcontrol/dlm_tool: separate plock debug buffer<BR>      dlm_controld: add more fs_notified debugging<BR> 
     dlm_controld/gfs_controld: avoid full plock unlock when no<BR>resource exists<BR>      dlm_controld: add plock checkpoint signatures<BR>      dlm_controld: set last_plock_time for ownership operations<BR>      dlm_controld: don't skip unlinking checkpoint<BR>      gfs_controld: set last_plock_time for ownership operations<BR><BR>Fabio M. Di Nitto (1):<BR>      dlm: bump libdlmcontrol sominor<BR><BR>Jan Friesse (1):<BR>      fencing: SNMP fence agents don't fail<BR><BR>Lon Hohberger (4):<BR>      config: Add hash_cluster_id to schema<BR>      rgmanager: Fix 2+ simultaneous relocation crash<BR>      rgmanager: Fix memory leaks during relocation<BR>      rgmanager: Fix tiny memory leak during reconfig<BR><BR>Marek 'marx' Grac (1):<BR>      fencing: Remove 'ipport' option from WTI
 fence agent<BR><BR>cman/daemon/Makefile                 |    3 +-<BR>cman/daemon/cman-preconfig.c         |   32 +++-<BR>cman/daemon/fnvhash.c                |   93 +++++++++<BR>cman/daemon/fnvhash.h                |    1 +<BR>config/plugins/ldap/99cluster.ldif   |   10 +-<BR>config/plugins/ldap/ldap-base.csv    |    3 +-<BR>config/tools/man/ccs_tool.8          |   15 +--<BR>config/tools/xml/cluster.rng.in      |    3 +<BR>dlm/libdlmcontrol/Makefile           |    2 +<BR>dlm/libdlmcontrol/libdlmcontrol.h    |    1 +<BR>dlm/libdlmcontrol/main.c       
      |    5 +<BR>dlm/man/dlm_tool.8                   |    4 +<BR>dlm/tool/main.c                      |   25 +++-<BR>doc/COPYRIGHT                        |    6 +<BR>fence/agents/lib/fencing_snmp.py.py  |   13 +-<BR>fence/agents/wti/fence_wti.py        |    2 +-<BR>gfs2/convert/gfs2_convert.c          |  377<BR>++++++++++++++++++++++++++++------<BR>gfs2/fsck/link.c                     |    2 -<BR>gfs2/fsck/pass1b.c                   |   10 +-<BR>gfs2/fsck/pass3.c           
         |    5 +-<BR>gfs2/fsck/pass4.c                    |    5 +-<BR>gfs2/libgfs2/device_geometry.c       |   38 ++++-<BR>gfs2/libgfs2/fs_ops.c                |    1 +<BR>gfs2/libgfs2/libgfs2.h               |   10 +<BR>gfs2/mkfs/main_mkfs.c                |   69 ++++++-<BR>gfs2/quota/check.c                   |    3 +-<BR>gfs2/quota/main.c                    |  104 +++-------<BR>group/dlm_controld/cpg.c             |   62 ++++--<BR>group/dlm_controld/dlm_controld.h    | 
   1 +<BR>group/dlm_controld/dlm_daemon.h      |   44 +++-<BR>group/dlm_controld/main.c            |   60 +++++-<BR>group/dlm_controld/plock.c           |  241 ++++++++++++++--------<BR>group/gfs_controld/plock.c           |   12 +-<BR>group/gfs_controld/util.c            |    3 +-<BR>rgmanager/src/daemons/event_config.c |    2 +<BR>rgmanager/src/daemons/rg_state.c     |    2 +<BR>rgmanager/src/daemons/rg_thread.c    |    4 +-<BR>37 files changed, 967 insertions(+), 306 deletions(-)<BR><BR>-----BEGIN PGP SIGNATURE-----<BR>Version: GnuPG v1.4.10 (MingW32)<BR>Comment: Using GnuPG with Mozilla - <A href="http://enigmail.mozdev.org/"
 target=_blank>http://enigmail.mozdev.org/</A><BR><BR>iQIcBAEBAgAGBQJLvxgDAAoJEFA6oBJjVJ+OOzUP/3Wl1ChlhmcjVvClhDyZhI4q<BR>aPSTnChG1b40WB7sh7UQsVcD0mwAsPPsgDaZZUlybhWl2LylxZ5xEwu7VWoL8SwJ<BR>8Q4aYT1Svp6jFfvqdmoRFmJfjp+vc3y7Gllx3NP6kLmf62TbTROgbc3X++72IFkf<BR>14DPEonWao2FzKx7MaoZCSttc0djuILd+UNh7EEgqC2lyR2r3tatmCa1i/eT2Pfy<BR>fwISqy4ioNie5i5SMO7fS9y4NCLnognMgeuH5iS5EJDUViougWyQSSorI8SQq36f<BR>ZRyrrUwuUivT2ylXyz3TgfuojGpRuFy2AC1oBxRsiDOVyMrVFHX4NaP5E18J4qs1<BR>0acYMULOpZYcwgKaLMy6haiYWwfvjFvI71zs4mKijmsWvuPbGTyVx7yxDJJco8SM<BR>OQBF5holEHqOo4FVekFa6De0GUMjfgmpGhfPTtuw04/ww5pbNp84Y4TzEOsRA9dd<BR>H6ak9yLwN4chjyDWRQxHsDnxCf67oqYDZJL5t1QlMauxruGYdXU3xIZRC9E4oYbW<BR>+vu+DTbkMGg70xg2MbXH3E7EkGHeJ9EWgiuEh5l4pavrEo14rf80O0dtf+myn8t7<BR>HosKmXjjdnjaVfYNimUH7/0mnISxX2YOO9uzBD6A/X9bqxrxC1Ky6TdI6tFN80dz<BR>nH3IJrLomvkmnadhFRqg<BR>=Z/pM<BR>-----END PGP SIGNATURE-----<BR><BR><BR><BR>------------------------------<BR><BR>Message: 9<BR>Date: Fri, 9 Apr 2010 10:00:51
 -0300<BR>From: Carlos Maiolino <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=cmaiolino@redhat.com" ymailto="mailto:cmaiolino@redhat.com">cmaiolino@redhat.com</A>><BR>To: linux clustering <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=linux-cluster@redhat.com" ymailto="mailto:linux-cluster@redhat.com">linux-cluster@redhat.com</A>><BR>Subject: Re: [Linux-cluster] Clustering and Cluster-Storage channels<BR>Message-ID: <<A href="http://us.mc519.mail.yahoo.com/mc/compose?to=20100409130051.GA31186@andromeda.usersys.redhat.com" ymailto="mailto:20100409130051.GA31186@andromeda.usersys.redhat.com">20100409130051.GA31186@andromeda.usersys.redhat.com</A>><BR>Content-Type: text/plain; charset=iso-8859-1<BR><BR>On Fri, Apr 09, 2010 at 01:39:21PM +0200, frank wrote:<BR>> Hi,<BR>> we have several machines with RH 5.4 and we use Cluster and<BR>> Cluster-Storage (because we use GFS).<BR>> We also have troubles in updates
 because we don't know how to<BR>> subscribe out machines to that channels. From RHN, in "Software<BR>> Channel Subscriptions" part, we see:<BR>> <BR>> Release Channels for Red Hat Enterprise Linux 5 for x86_64<BR>>     RHEL FasTrack (v. 5 for 64-bit x86_64) (Channel Details)<BR>> Consumes a regular entitlement (13 available)<BR>>     RHEL Optional Productivity Apps (v. 5 for 64-bit x86_64)<BR>> (Channel Details)     Consumes a regular entitlement (13 available)<BR>>     RHEL Supplementary (v. 5 for 64-bit x86_64) (Channel Details)<BR>> Consumes a regular entitlement (13 available)<BR>>     RHEL Virtualization (v. 5 for 64-bit x86_64) (Channel Details)<BR>> Consumes a regular entitlement (9 available)<BR>>     Red Hat Network Tools for RHEL Server (v.5 64-bit x86_64)<BR>> (Channel Details) 
    Consumes a regular entitlement (10 available)<BR>> BETA Channels for Red Hat Enterprise Linux 5 for x86_64<BR>>     RHEL Optional Productivity Apps (v. 5 for 64-bit x86_64) Beta<BR>> (Channel Details)     Consumes a regular entitlement (13 available)<BR>>     RHEL Supplementary (v. 5 for 64-bit x86_64) Beta (Channel<BR>> Details)     Consumes a regular entitlement (13 available)<BR>>     RHEL Virtualization (v. 5 for 64-bit x86_64) Beta (Channel<BR>> Details)     Consumes a regular entitlement (13 available)<BR>>     Red Hat Enterprise Linux (v. 5 for 64-bit x86_64) Beta (Channel<BR>> Details)     Consumes a regular entitlement (13 available)<BR>> Additional Services Channels for Red Hat Enterprise Linux 5 for x86_64<BR>> 
    RHEL Hardware Certification (v. 5 for 64-bit x86_64) (Channel<BR>> Details)     Consumes a regular entitlement (13 available)<BR>> Additional Services BETA Channels for Red Hat Enterprise Linux 5 for x86_64<BR>>     RHEL Cluster-Storage (v. 5 for 64-bit x86_64) Beta (Channel<BR>> Details)     Consumes a regular entitlement (10 available)<BR>>     RHEL Clustering (v. 5 for 64-bit x86_64) Beta (Channel Details)<BR>> Consumes a regular entitlement (10 available)<BR>>     RHEL Hardware Certification (v. 5 for 64-bit x86_64) Beta<BR>> (Channel Details)     Consumes a regular entitlement (13 available)<BR>> <BR>> Thera are cluster beta channels, but not the release ones. How can<BR>> we subscribe systems to them?<BR>> <BR>> Thanks and Regards.<BR>> <BR>> Frank<BR>> <BR>> --
 <BR>> Aquest missatge ha estat analitzat per MailScanner<BR>> a la cerca de virus i d'altres continguts perillosos,<BR>> i es considera que est? net.<BR>> <BR>> --<BR>> Linux-cluster mailing list<BR>> <A href="http://us.mc519.mail.yahoo.com/mc/compose?to=Linux-cluster@redhat.com" ymailto="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</A><BR>> <A href="https://www.redhat.com/mailman/listinfo/linux-cluster" target=_blank>https://www.redhat.com/mailman/listinfo/linux-cluster</A><BR><BR>Hello Frank.<BR><BR>I guess is better you to contact Red Hat support, once this looks like a subscription problem than a thecnical problem.<BR><BR>see you ;)<BR><BR>-- <BR>---<BR><BR>Best Regards<BR><BR>Carlos Eduardo Maiolino<BR><BR><BR><BR>------------------------------<BR><BR>--<BR>Linux-cluster mailing list<BR><A href="http://us.mc519.mail.yahoo.com/mc/compose?to=Linux-cluster@redhat.com"
 ymailto="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</A><BR><A href="https://www.redhat.com/mailman/listinfo/linux-cluster" target=_blank>https://www.redhat.com/mailman/listinfo/linux-cluster</A><BR><BR>End of Linux-cluster Digest, Vol 72, Issue 9<BR>********************************************<BR></DIV></BLOCKQUOTE></td></tr></table><br>