<br><br><div class="gmail_quote">On Thu, Aug 13, 2009 at 5:45 PM, NTOUGHE GUY-SERGE <span dir="ltr"><<a href="mailto:ntoughe@hotmail.com">ntoughe@hotmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">




<div>
Thank's Junra,<br>I did it , and i tried to restart the cman service  without more success, thise are the messages i got:<br><br>my new cluster.conf:<br><?xml version="1.0"?><br><cluster alias="arevclust" config_version="1" name="arevclust"><br>
        <clusternodes><br>        <cman expected_votes="1" two_node="1"><br>        </cman><br>                <clusternode name="gs21spli003.occ.lan" nodeid="1" votes="1"><br>
                </clusternode><br>                <clusternode name="gs21spli004.occ.lan" nodeid="2" votes="1"></div></blockquote><div>You should put the node names in /etc/hosts to be resolved to the IP addresses configured on the network interfaces you want to be used for cluster comms.<br>
<br>Greetings,<br>Juanra <br></div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div><br>                </clusternode><br>        </clusternodes><br>
</cluster><br>~                                                                      <br>j<br><br>cman not started: Multicast and node address families differ. /usr/sbin/cman_tool: aisexec daemon didn't start<br>
when i mounted the gfs FS i got this:<br># mount -t gfs2 /dev/mapper/VolGroup01-LogVol01  /appli/prod<br>/sbin/mount.gfs2: can't connect to gfs_controld: Connection refused<br>/sbin/mount.gfs2: can't connect to gfs_controld: Connection refused<br>
/sbin/mount.gfs2: can't connect to gfs_controld: Connection refused<br><br>I 'm not sure but i have a doubt on the lockTableName  during  the FS GFS creation:<br>mkfs.gfs2 -p lock_dlm -t arevclust:appli/prod -j 1 /dev/mapper/VolGroup00-LogVol01,  the name of the cluster is: arevclust<br>
The gfs File system is made by /dev/mapper/volGroup00-LogVol01 and the mounting point is /appli/prod, so if i have to precise my gfs file i put : appli/prod is it correct?<br>regards<br><br><br><div><br><a href="mailto:ntoughe@hotmail.com" target="_blank">ntoughe@hotmail.com</a></div>
<br><br><br><br>> From: <a href="mailto:linux-cluster-request@redhat.com" target="_blank">linux-cluster-request@redhat.com</a><br>> Subject: Linux-cluster Digest, Vol 64, Issue 18<br>> To: <a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a><br>
> Date: Thu, 13 Aug 2009 11:24:21 -0400<br>> <br>> Send Linux-cluster mailing list submissions to<br>>    <a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a><br>> <br>> To subscribe or unsubscribe via the World Wide Web, visit<br>
>    <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>> or, via email, send a message with subject or body 'help' to<br>
>    <a href="mailto:linux-cluster-request@redhat.com" target="_blank">linux-cluster-request@redhat.com</a><br>> <br>> You can reach the person managing the list at<br>>         <a href="mailto:linux-cluster-owner@redhat.com" target="_blank">linux-cluster-owner@redhat.com</a><br>
> <br>> When replying, please edit your Subject line so it is more specific<br>> than "Re: Contents of Linux-cluster digest..."<br>> <br>> <br>> Today's Topics:<br>> <br>>    1. Re: Qdisk question (brem belguebli)<br>
>    2. Re: Cman hang (Juan Ramon Martin Blanco)<br>> <br>> <br>> ----------------------------------------------------------------------<br>> <br>> Message: 1<br>> Date: Thu, 13 Aug 2009 17:23:16 +0200<br>
> From: brem belguebli <<a href="mailto:brem.belguebli@gmail.com" target="_blank">brem.belguebli@gmail.com</a>><br>> Subject: Re: [Linux-cluster] Qdisk question<br>> To: linux clustering <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>
> Message-ID:<br>>  <<a href="mailto:29ae894c0908130823i65667021vdc840ae1f0ded134@mail.gmail.com" target="_blank">29ae894c0908130823i65667021vdc840ae1f0ded134@mail.gmail.com</a>><br>> Content-Type: text/plain; charset="iso-8859-1"<br>
> <br>> Hi Lon and Thanks for this reply.<br>> <br>> In fact, thinking about it, my test wasn't very much representative of what<br>> I was expecting to do.<br>> <br>> I blocked the qdisk communications to only one node which, after reading<br>
> your reply, kind of confirmed me that I did the wong test. I'm going to re<br>> run it by blocking all the nodes to the qdisk.<br>> <br>> I'll also try your ping tie-breaker.<br>> <br>> Brem<br>
> <br>> <br>> 2009/8/13, Lon Hohberger <<a href="mailto:lhh@redhat.com" target="_blank">lhh@redhat.com</a>>:<br>> ><br>> > On Thu, 2009-08-13 at 00:45 +0200, brem belguebli wrote:<br>> ><br>
> > > My understanding of qdisk is that it is used as a tie-breaker, but it<br>> > > looks like it is more a heatbeat vector than a simple tie-breaker.<br>> ><br>> > Right, it's a secondary membership algorithm.<br>
> ><br>> ><br>> > > Until here, no real problem indeed, if the site gets apart from the<br>> > > other prod site and also from the third site (hosting the iscsi target<br>> > > qdisk) the 2 nodes from the failing site get evicted from the cluster.<br>
> > ><br>> > ><br>> > > But, what if my third site gets isolated while the 2 prod ones are<br>> > > fine ?<br>> ><br>> > Qdisk votes will not be presented to CMAN any more, but the two sites<br>
> > should remain online if they still have a "majority" of votes.<br>> ><br>> ><br>> > > The real  question is what happens in case all the nodes loose access<br>> > > to the qdisk while they're still able to see each others ?<br>
> ><br>> > Qdisk is just a vote like other voting mechanisms.  If all nodes lose<br>> > access at the same time, it should behave like a node death.  However,<br>> > the default action if _one_ node loses access is to kill that node (even<br>
> > if CMAN still sees it).<br>> ><br>> ><br>> > > The 4 nodes have each 1 vote and the qdisk 1 vote. The expected quorum<br>> > > is 3.<br>> ><br>> ><br>> > > If I loose the qdisk, the number of votes falls to 4, the cluster is<br>
> > > quorate (4>3) but it looks like everything goes bad, each node<br>> > > deactivate itself as it can't write its alive status (--> heartbeat<br>> > > vector) to the qdisk even if the network heartbeating is working<br>
> > > fine.<br>> ><br>> > What happens specifically?  Most of the actions qdiskd performs are<br>> > configurable.  For example, if the nodes are rebooting, you can turn<br>> > that behavior off.<br>
> ><br>> ><br>> ><br>> > I wrote a simple 'ping' tiebreaker based the behaviors in RHEL3.  It<br>> > functions in many ways in the same manner as qdiskd with respect to vote<br>> > advertisement to CMAN, but without needing a disk - maybe you would find<br>
> > it useful?<br>> ><br>> > <a href="http://people.redhat.com/lhh/qnet.tar.gz" target="_blank">http://people.redhat.com/lhh/qnet.tar.gz</a><br>> ><br>> > -- Lon<br>> ><br>> > --<br>
> > Linux-cluster mailing list<br>> > <a href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>> > <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
> ><br>> -------------- next part --------------<br>> An HTML attachment was scrubbed...<br>> URL: <a href="https://www.redhat.com/archives/linux-cluster/attachments/20090813/5482c8bf/attachment.html" target="_blank">https://www.redhat.com/archives/linux-cluster/attachments/20090813/5482c8bf/attachment.html</a><br>
> <br>> ------------------------------<br>> <br>> Message: 2<br>> Date: Thu, 13 Aug 2009 17:23:54 +0200<br>> From: Juan Ramon Martin Blanco <<a href="mailto:robejrm@gmail.com" target="_blank">robejrm@gmail.com</a>><br>
> Subject: Re: [Linux-cluster] Cman hang<br>> To: linux clustering <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>> Message-ID:<br>>   <<a href="mailto:8a5668960908130823u11b46ad9pd1da5af3614ce3d3@mail.gmail.com" target="_blank">8a5668960908130823u11b46ad9pd1da5af3614ce3d3@mail.gmail.com</a>><br>
> Content-Type: text/plain; charset="iso-8859-1"<br>> <br>> On Thu, Aug 13, 2009 at 5:13 PM, NTOUGHE GUY-SERGE <<a href="mailto:ntoughe@hotmail.com" target="_blank">ntoughe@hotmail.com</a>>wrote:<br>
> <br>> >  Hi, this is my cluster.conf<br>> > <?xml version="1.0"?><br>> > <cluster alias="arevclust" config_version="21" name="arevclust"><br>> >   <fence_daemon clean_start="0" post_fail_delay="0" post_join_delay="3"/><br>
> >   <clusternodes><br>> >   <clusternode name="host1" nodeid="1" votes="1"><br>> >   <fence><br>> >   <method name="2"><br>> ><br>
> <br>> >   <device name=""/><br>> ><br>> You should configure a valid fencing method, and if you don't have any, use<br>> fence_manual until you get it.<br>> <br>> ><br>> >   </method><br>
> >   </fence><br>> >   <multicast addr="" interface=""/><br>> ><br>> I am not sure, but I think you should erase this <multicast ....> tag<br>> <br>> Greetings,<br>
> Juanra<br>> <br>> ><br>> >   </clusternode><br>> ><br>> <br>> >   <clusternode name="host2" nodeid="2" votes="1"><br>> >   <fence><br>
> >   <method name="1"><br>> >   <device name=""/><br>> >   </method><br>> >   <method name=""/><br>> >   </fence><br>> >   <multicast addr="" interface=""/><br>
> >   </clusternode><br>> >   </clusternodes><br>> >   <cman expected_votes="" two_node=""><br>> >   <multicast addr=""/><br>> >   </cman><br>
> >   <fencedevices><br>> >   <fencedevice agent="fence_brocade" ipaddr="" login="" name="" passwd=""/><br>> >   </fencedevices><br>> >   <rm><br>
> >   <failoverdomains><br>> >   </failoverdomains><br>> >   <resources><br>> >   </resources><br>> >   </rm><br>> > </cluster><br>> ><br>> > Regards<br>
> ><br>> ><br>> ><br>> ><br>> > <a href="mailto:ntoughe@hotmail.com" target="_blank">ntoughe@hotmail.com</a><br>> ><br>> ><br>> ><br>> ><br>> > > From: <a href="mailto:linux-cluster-request@redhat.com" target="_blank">linux-cluster-request@redhat.com</a><br>
> > > Subject: Linux-cluster Digest, Vol 64, Issue 16<br>> > > To: <a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a><br>> > > Date: Thu, 13 Aug 2009 11:02:36 -0400<br>
> > ><br>> > > Send Linux-cluster mailing list submissions to<br>> > > <a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a><br>> > ><br>> > > To subscribe or unsubscribe via the World Wide Web, visit<br>
> > > <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>> > > or, via email, send a message with subject or body 'help' to<br>
> > > <a href="mailto:linux-cluster-request@redhat.com" target="_blank">linux-cluster-request@redhat.com</a><br>> > ><br>> > > You can reach the person managing the list at<br>> > > <a href="mailto:linux-cluster-owner@redhat.com" target="_blank">linux-cluster-owner@redhat.com</a><br>
> > ><br>> > > When replying, please edit your Subject line so it is more specific<br>> > > than "Re: Contents of Linux-cluster digest..."<br>> > ><br>> > ><br>> > > Today's Topics:<br>
> > ><br>> > > 1. Re: do I have a fence DRAC device? (ESGLinux)<br>> > > 2. clusterservice stays in 'recovering' state (mark benschop)<br>> > > 3. Re: Is there any backup heartbeat channel (Hakan VELIOGLU)<br>
> > > 4. Re: Is there any backup heartbeat channel<br>> > > (Juan Ramon Martin Blanco)<br>> > > 5. RHCS on KVM (Nehemias Jahcob)<br>> > > 6. Cman hang (NTOUGHE GUY-SERGE)<br>> > > 7. Re: gfs2 mount hangs (David Teigland)<br>
> > > 8. Re: Qdisk question (Lon Hohberger)<br>> > > 9. Re: Cman hang (Juan Ramon Martin Blanco)<br>> > ><br>> > ><br>> > > ----------------------------------------------------------------------<br>
> > ><br>> > > Message: 1<br>> > > Date: Thu, 13 Aug 2009 13:27:16 +0200<br>> > > From: ESGLinux <<a href="mailto:esggrupos@gmail.com" target="_blank">esggrupos@gmail.com</a>><br>
> > > Subject: Re: [Linux-cluster] do I have a fence DRAC device?<br>> > > To: linux clustering <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>> > > Message-ID:<br>
> > > <<a href="mailto:3128ba140908130427i6ab85406ye6da34073e6a6e97@mail.gmail.com" target="_blank">3128ba140908130427i6ab85406ye6da34073e6a6e97@mail.gmail.com</a>><br>> > > Content-Type: text/plain; charset="iso-8859-1"<br>
> > ><br>> > > Hi,<br>> > > I couldn´t reboot my system yet but I have installed the openmanage<br>> > > packages:<br>> > ><br>> > > srvadmin-omacore-5.4.0-260<br>> > > srvadmin-iws-5.4.0-260<br>
> > > srvadmin-syscheck-5.4.0-260<br>> > > srvadmin-rac5-components-5.4.0-260<br>> > > srvadmin-deng-5.4.0-260<br>> > > srvadmin-ipmi-5.4.0-260.DUP<br>> > > srvadmin-racadm5-5.4.0-260<br>
> > > srvadmin-omauth-5.4.0-260.rhel5<br>> > > srvadmin-hapi-5.4.0-260<br>> > > srvadmin-cm-5.4.0-260<br>> > > srvadmin-racdrsc5-5.4.0-260<br>> > > srvadmin-omilcore-5.4.0-260<br>
> > > srvadmin-isvc-5.4.0-260<br>> > > srvadmin-storage-5.4.0-260<br>> > > srvadmin-jre-5.4.0-260<br>> > > srvadmin-omhip-5.4.0-260<br>> > ><br>> > > Now I have the command racadm but when I try to execut it I get this:<br>
> > ><br>> > > racadm config -g cfgSerial -o cfgSerialTelnetEnable 1<br>> > > ERROR: RACADM is unable to process the requested subcommand because there<br>> > is<br>> > > no<br>> > > local RAC configuration to communicate with.<br>
> > ><br>> > > Local RACADM subcommand execution requires the following:<br>> > ><br>> > > 1. A Remote Access Controller (RAC) must be present on the managed server<br>> > > 2. Appropriate managed node software must be installed and running on the<br>
> > > server<br>> > ><br>> > ><br>> > > What do I need to install/start? or until I configure the bios I can´t<br>> > get<br>> > > this work?<br>> > ><br>> > > Greetings<br>
> > ><br>> > > ESG<br>> > ><br>> > ><br>> > > 2009/8/11 <<a href="mailto:bergman@merctech.com" target="_blank">bergman@merctech.com</a>><br>> > ><br>> > > ><br>
> > > ><br>> > > > In the message dated: Tue, 11 Aug 2009 14:14:03 +0200,<br>> > > > The pithy ruminations from Juan Ramon Martin Blanco on<br>> > > > <Re: [Linux-cluster] do I have a fence DRAC device?> were:<br>
> > > > => --===============1917368601==<br>> > > > => Content-Type: multipart/alternative;<br>> > > > boundary=0016364c7c07663f600470dca3b8<br>> > > > =><br>> > > > => --0016364c7c07663f600470dca3b8<br>
> > > > => Content-Type: text/plain; charset=ISO-8859-1<br>> > > > => Content-Transfer-Encoding: quoted-printable<br>> > > > =><br>> > > > => On Tue, Aug 11, 2009 at 2:03 PM, ESGLinux <<a href="mailto:esggrupos@gmail.com" target="_blank">esggrupos@gmail.com</a>><br>
> > wrote:<br>> > > > =><br>> > > > => > Thanks<br>> > > > => > I=B4ll check it when I could reboot the server.<br>> > > > => ><br>> > > > => > greetings,<br>
> > > > => ><br>> > > > => You have a BMC ipmi in the first network interface, it can be<br>> > configured<br>> > > > at<br>> > > > => boot time (I don't remember if inside the BIOS or pressing<br>
> > > > cntrl+something<br>> > > > => during boot)<br>> > > > =><br>> > > ><br>> > > > Based on my notes, here's how I configured the DRAC interface on a Dell<br>
> > > > 1950<br>> > > > for use as a fence device:<br>> > > ><br>> > > > Configuring the card from Linux depending on the installation of<br>> > > > Dell's<br>
> > > > OMSA package. Once that's installed, use the following<br>> > > > commands:<br>> > > ><br>> > > > racadm config -g cfgSerial -o cfgSerialTelnetEnable 1<br>> > > > racadm config -g cfgLanNetworking -o cfgDNSRacName<br>
> > > > HOSTNAME_FOR_INTERFACE<br>> > > > racadm config -g cfgDNSDomainName DOMAINNAME_FOR_INTERFACE<br>> > > > racadm config -g cfgUserAdmin -o cfgUserAdminPassword -i 2<br>> > > > PASSWORD<br>
> > > > racadm config -g cfgNicEnable 1<br>> > > > racadm config -g cfgNicIpAddress WWW.XXX.YYY.ZZZ<br>> > > > racadm config -g cfgNicNetmask WWW.XXX.YYY.ZZZ<br>> > > > racadm config -g cfgNicGateway WWW.XXX.YYY.ZZZ<br>
> > > > racadm config -g cfgNicUseDhcp 0<br>> > > ><br>> > > ><br>> > > > I also save a backup of the configuration with:<br>> > > ><br>> > > > racadm getconfig -f ~/drac_config<br>
> > > ><br>> > > ><br>> > > > Hope this helps,<br>> > > ><br>> > > > Mark<br>> > > ><br>> > > > ----<br>> > > > Mark Bergman voice: 215-662-7310<br>
> > > > <a href="mailto:mark.bergman@uphs.upenn.edu" target="_blank">mark.bergman@uphs.upenn.edu</a> fax: 215-614-0266<br>> > > > System Administrator Section of Biomedical Image Analysis<br>> > > > Department of Radiology University of Pennsylvania<br>
> > > > PGP Key: <a href="https://www.rad.upenn.edu/sbia/bergman" target="_blank">https://www.rad.upenn.edu/sbia/bergman</a><br>> > > ><br>> > > ><br>> > > > => Greetings,<br>
> > > > => Juanra<br>> > > > =><br>> > > > => ><br>> > > > => > ESG<br>> > > > => ><br>> > > > => > 2009/8/10 Paras pradhan <<a href="mailto:pradhanparas@gmail.com" target="_blank">pradhanparas@gmail.com</a>><br>
> > > > => ><br>> > > > => > On Mon, Aug 10, 2009 at 5:24 AM, ESGLinux<<a href="mailto:esggrupos@gmail.com" target="_blank">esggrupos@gmail.com</a>><br>> > wrote:<br>> > > > => >> > Hi all,<br>
> > > > => >> > I was designing a 2 node cluster and I was going to use 2<br>> > servers<br>> > > > DELL<br>> > > > => >> > PowerEdge 1950. I was going to buy a DRAC card to use for<br>
> > fencing<br>> > > > but<br>> > > > => >> > running several commands in the servers I have noticed that<br>> > when I<br>> > > > run<br>> > > > => >> this<br>
> > > > => >> > command:<br>> > > > => >> > #ipmitool lan print<br>> > > > => >> > Set in Progress : Set Complete<br>> > > > => >> > Auth Type Support : NONE MD2 MD5 PASSWORD<br>
> > > > => >> > Auth Type Enable : Callback : MD2 MD5<br>> > > > => >> > : User : MD2 MD5<br>> > > > => >> > : Operator : MD2 MD5<br>> > > > => >> > : Admin : MD2 MD5<br>
> > > > => >> > : OEM : MD2 MD5<br>> > > > => >> > IP Address Source : Static Address<br>> > > > => >> > IP Address : 0.0.0.0<br>> > > > => >> > Subnet Mask : 0.0.0.0<br>
> > > > => >> > MAC Address : 00:1e:c9:ae:6f:7e<br>> > > > => >> > SNMP Community String : public<br>> > > > => >> > IP Header : TTL=0x40 Flags=0x40 Precedence=0x00 TOS=0x10<br>
> > > > => >> > Default Gateway IP : 0.0.0.0<br>> > > > => >> > Default Gateway MAC : 00:00:00:00:00:00<br>> > > > => >> > Backup Gateway IP : 0.0.0.0<br>
> > > > => >> > Backup Gateway MAC : 00:00:00:00:00:00<br>> > > > => >> > 802.1q VLAN ID : Disabled<br>> > > > => >> > 802.1q VLAN Priority : 0<br>> > > > => >> > RMCP+ Cipher Suites : 0,1,2,3,4,5,6,7,8,9,10,11,12,13,14<br>
> > > > => >> > Cipher Suite Priv Max : aaaaaaaaaaaaaaa<br>> > > > => >> > : X=Cipher Suite Unused<br>> > > > => >> > : c=CALLBACK<br>> > > > => >> > : u=USER<br>
> > > > => >> > : o=OPERATOR<br>> > > > => >> > : a=ADMIN<br>> > > > => >> > : O=OEM<br>> > > > => >> > does this mean that I already have an ipmi card (not<br>
> > configured)<br>> > > > that<br>> > > > => I<br>> > > > => >> can<br>> > > > => >> > use for fencing? if the anwser is yes, where hell must I<br>
> > configure<br>> > > > it?<br>> > > > => I<br>> > > > => >> > don=B4t see wher can I do it.<br>> > > > => >> > If I haven=B4t a fencing device which one do you recommed to<br>
> > use?<br>> > > > => >> > Thanks in advance<br>> > > > => >> > ESG<br>> > > > => >> ><br>> > > > => >> > --<br>> > > > => >> > Linux-cluster mailing list<br>
> > > > => >> > <a href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>> > > > => >> > <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
> > > > => >> ><br>> > > > => >><br>> > > > => >> Yes you have IPMI and if you are using 1950 Dell, DRAC should be<br>> > > > there<br>> > > > => >> too. You can see if you have DRAC or not when the server starts<br>
> > and<br>> > > > => >> before the loading of the OS.<br>> > > > => >><br>> > > > => >> I have 1850s and I am using DRAC for fencing.<br>> > > > => >><br>
> > > > => >><br>> > > > => >> Paras.<br>> > > > => >><br>> > > > => >> --<br>> > > > => >> Linux-cluster mailing list<br>
> > > > => >> <a href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>> > > > => >> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
> > > > => >><br>> > > > => ><br>> > > > => ><br>> > > ><br>> > > ><br>> > > ><br>> > > > --<br>> > > > Linux-cluster mailing list<br>
> > > > <a href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>> > > > <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
> > > ><br>> > > -------------- next part --------------<br>> > > An HTML attachment was scrubbed...<br>> > > URL:<br>> > <a href="https://www.redhat.com/archives/linux-cluster/attachments/20090813/a4558d27/attachment.html" target="_blank">https://www.redhat.com/archives/linux-cluster/attachments/20090813/a4558d27/attachment.html</a><br>
> > ><br>> > > ------------------------------<br>> > ><br>> > > Message: 2<br>> > > Date: Thu, 13 Aug 2009 14:45:13 +0200<br>> > > From: mark benschop <<a href="mailto:mark.benschop.lists@gmail.com" target="_blank">mark.benschop.lists@gmail.com</a>><br>
> > > Subject: [Linux-cluster] clusterservice stays in 'recovering' state<br>> > > To: <a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a><br>> > > Message-ID:<br>
> > > <<a href="mailto:f97c3a70908130545n11ce442ej17d74c9cdc450e45@mail.gmail.com" target="_blank">f97c3a70908130545n11ce442ej17d74c9cdc450e45@mail.gmail.com</a>><br>> > > Content-Type: text/plain; charset="iso-8859-1"<br>
> > ><br>> > > Hi All,<br>> > ><br>> > > I've a problem with a clusterservice. The service was started up while<br>> > one<br>> > > of the resources, an NFS, export was not accessible.<br>
> > > Therefore the service never started up right but got into the<br>> > 'recovering'<br>> > > state.<br>> > > In the mean time the NFS exports are setup properly but to no avail.<br>
> > > Stopping the clusterservice, using clusvcadm -d <service>, will result in<br>> > > the service going down but staying in the 'recovering' state.<br>> > > Starting it again doesn't work. The service doesn't start and stays in<br>
> > the<br>> > > recovery status.<br>> > > I'm suspecting rgmanager lost it somehow.<br>> > ><br>> > > Anybody had any ideas on what could be the problem and how to resolve it<br>
> > ?<br>> > ><br>> > > Thanks in advance,<br>> > > Mark<br>> > > -------------- next part --------------<br>> > > An HTML attachment was scrubbed...<br>> > > URL:<br>
> > <a href="https://www.redhat.com/archives/linux-cluster/attachments/20090813/31731cd3/attachment.html" target="_blank">https://www.redhat.com/archives/linux-cluster/attachments/20090813/31731cd3/attachment.html</a><br>
> > ><br>> > > ------------------------------<br>> > ><br>> > > Message: 3<br>> > > Date: Thu, 13 Aug 2009 16:13:12 +0300<br>> > > From: Hakan VELIOGLU <<a href="mailto:veliogluh@itu.edu.tr" target="_blank">veliogluh@itu.edu.tr</a>><br>
> > > Subject: Re: [Linux-cluster] Is there any backup heartbeat channel<br>> > > To: <a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a><br>> > > Message-ID: <<a href="mailto:20090813161312.11546h2sp6psr814@webmail.itu.edu.tr" target="_blank">20090813161312.11546h2sp6psr814@webmail.itu.edu.tr</a>><br>
> > > Content-Type: text/plain; charset=ISO-8859-9; DelSp="Yes";<br>> > > format="flowed"<br>> > ><br>> > > Thanks for all the answers.<br>> > ><br>> > > I think there is realy no backup heartbeat channel. Maybe the reason<br>
> > > is GFS. DLM works on the heartbeat channel. If you lost your heartbeat<br>> > > you lose your lock consistency so it is better to fence the other<br>> > > node. For this reason I think if you don't have enough network<br>
> > > interface on server and switch, loosing the heartbeat network may shut<br>> > > all the cluster members.<br>> > ><br>> > > Hakan VELİOĞLU<br>> > ><br>> > ><br>> > > ----- <a href="mailto:robejrm@gmail.com" target="_blank">robejrm@gmail.com</a> den ileti ---------<br>
> > > Tarih: Thu, 13 Aug 2009 10:42:11 +0200<br>> > > Kimden: Juan Ramon Martin Blanco <<a href="mailto:robejrm@gmail.com" target="_blank">robejrm@gmail.com</a>><br>> > > Yanıt Adresi:linux clustering <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>
> > > Konu: Re: [Linux-cluster] Is there any backup heartbeat channel<br>> > > Kime: linux clustering <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>> > ><br>
> > ><br>> > > > 2009/8/13 Hakan VELIOGLU <<a href="mailto:veliogluh@itu.edu.tr" target="_blank">veliogluh@itu.edu.tr</a>><br>> > > ><br>> > > >> ----- <a href="mailto:raju.rajsand@gmail.com" target="_blank">raju.rajsand@gmail.com</a> den ileti ---------<br>
> > > >> Tarih: Thu, 13 Aug 2009 08:57:15 +0530<br>> > > >> Kimden: Rajagopal Swaminathan <<a href="mailto:raju.rajsand@gmail.com" target="_blank">raju.rajsand@gmail.com</a>><br>> > > >> Yanıt Adresi:linux clustering <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>
> > > >> Konu: Re: [Linux-cluster] Is there any backup heartbeat channel<br>> > > >> Kime: linux clustering <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>
> > > >><br>> > > >><br>> > > >> Greetings,<br>> > > >>><br>> > > >>> 2009/8/12 Hakan VELIOGLU <<a href="mailto:veliogluh@itu.edu.tr" target="_blank">veliogluh@itu.edu.tr</a>>:<br>
> > > >>><br>> > > >>>> Hi list,<br>> > > >>>><br>> > > >>>> I am trying a two node cluster with RH 5.3 on Sun X4150 hardware. I<br>> > use a<br>
> > > >>>><br>> > > >>><br>> > > >>> IIRC, Sun x4150 has four ethernet ports. Two can be used for outside<br>> > > >>> networking and two can be bonded and used for heartbeat.<br>
> > > >>><br>> > > >> I think, I couldn't explain my networking. I use two ethernet ports<br>> > for xen<br>> > > >> vm which are trunk and bonded ports. Then there left two. Our network<br>
> > > >> topology (which is out of my control) available for one port for<br>> > server<br>> > > >> control (SSH).<br>> > > ><br>> > > > So you can't use a bonded port for both server management and cluster<br>
> > > > communications, can you? You can configure an active-passive bonding<br>> > and<br>> > > > then you can have many virtual interfaces on top of that, i.e: bond0:0,<br>> > > > bond0:1 and assign them the ip addesses you need.<br>
> > > ><br>> > > ><br>> > > > I use the other one with a cross over cable for heartbeat. So there is<br>> > no<br>> > > >> way for bonding these two interfaces. Of course if I buy an extra<br>
> > switch I<br>> > > >> may do this.<br>> > > ><br>> > > > You can connect them to the same switch (though you lost kind of<br>> > > > redundancy), or you can use two crossover cables and move the<br>
> > management IP<br>> > > > to the same ports you are using for the vm's.<br>> > > ><br>> > > > Greetings,<br>> > > > Juanra<br>> > > ><br>> > > >><br>
> > > >> I don't realy understand why there is no backup heartbeat channel. LVS<br>> > and<br>> > > >> MS cluster has this ability.<br>> > > >><br>> > > >>><br>
> > > >>> ALOM can be used for fencing and can be on a seperate subnet if<br>> > required.<br>> > > >>><br>> > > >> I used this for fencing_ipmilan.<br>> > > >><br>
> > > >>><br>> > > >>> Regards<br>> > > >>><br>> > > >>> Rajagopal<br>> > > >>><br>> > > >>> --<br>> > > >>> Linux-cluster mailing list<br>
> > > >>> <a href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>> > > >>> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
> > > >>><br>> > > >>><br>> > > >><br>> > > >> ----- <a href="mailto:raju.rajsand@gmail.com" target="_blank">raju.rajsand@gmail.com</a> den iletiyi bitir -----<br>
> > > >><br>> > > >><br>> > > >><br>> > > >><br>> > > >> --<br>> > > >> Linux-cluster mailing list<br>> > > >> <a href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>
> > > >> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>> > > >><br>> > > ><br>> > ><br>
> > ><br>> > > ----- <a href="mailto:robejrm@gmail.com" target="_blank">robejrm@gmail.com</a> den iletiyi bitir -----<br>> > ><br>> > ><br>> > ><br>> > ><br>> > ><br>
> > > ------------------------------<br>> > ><br>> > > Message: 4<br>> > > Date: Thu, 13 Aug 2009 15:29:43 +0200<br>> > > From: Juan Ramon Martin Blanco <<a href="mailto:robejrm@gmail.com" target="_blank">robejrm@gmail.com</a>><br>
> > > Subject: Re: [Linux-cluster] Is there any backup heartbeat channel<br>> > > To: linux clustering <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>> > > Message-ID:<br>
> > > <<a href="mailto:8a5668960908130629n6ec05a88n463a3b03da331dae@mail.gmail.com" target="_blank">8a5668960908130629n6ec05a88n463a3b03da331dae@mail.gmail.com</a>><br>> > > Content-Type: text/plain; charset="iso-8859-9"<br>
> > ><br>> > > 2009/8/13 Hakan VELIOGLU <<a href="mailto:veliogluh@itu.edu.tr" target="_blank">veliogluh@itu.edu.tr</a>><br>> > ><br>> > > > Thanks for all the answers.<br>> > > ><br>
> > > > I think there is realy no backup heartbeat channel. Maybe the reason is<br>> > > > GFS. DLM works on the heartbeat channel. If you lost your heartbeat you<br>> > lose<br>> > > > your lock consistency so it is better to fence the other node. For this<br>
> > > > reason I think if you don't have enough network interface on server and<br>> > > > switch, loosing the heartbeat network may shut all the cluster members.<br>> > > ><br>> > > There is no backup heartbeat channel because you should do the backup at<br>
> > a<br>> > > operating system level, i.e: bonding<br>> > > That's why you should use a bonded interface for the heartbeat channel<br>> > with<br>> > > at least 2 ethernet slaves; going further (for better redundancy) each of<br>
> > > the slaves should be on a different network card and you should connect<br>> > the<br>> > > each slave to a different switch.<br>> > > But what I am trying to explain, is that you can use that bonded logical<br>
> > > interface also for things different from hearbeat. ;)<br>> > ><br>> > > Greetings,<br>> > > Juanra<br>> > ><br>> > ><br>> > > > Hakan VELİOĞLU<br>> > > ><br>
> > > ><br>> > > > ----- <a href="mailto:robejrm@gmail.com" target="_blank">robejrm@gmail.com</a> den ileti ---------<br>> > > > Tarih: Thu, 13 Aug 2009 10:42:11 +0200<br>> > > > Kimden: Juan Ramon Martin Blanco <<a href="mailto:robejrm@gmail.com" target="_blank">robejrm@gmail.com</a>><br>
> > > ><br>> > > > Yanıt Adresi:linux clustering <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>> > > > Konu: Re: [Linux-cluster] Is there any backup heartbeat channel<br>
> > > > Kime: linux clustering <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>> > > ><br>> > > ><br>> > > > 2009/8/13 Hakan VELIOGLU <<a href="mailto:veliogluh@itu.edu.tr" target="_blank">veliogluh@itu.edu.tr</a>><br>
> > > >><br>> > > >> ----- <a href="mailto:raju.rajsand@gmail.com" target="_blank">raju.rajsand@gmail.com</a> den ileti ---------<br>> > > >>> Tarih: Thu, 13 Aug 2009 08:57:15 +0530<br>
> > > >>> Kimden: Rajagopal Swaminathan <<a href="mailto:raju.rajsand@gmail.com" target="_blank">raju.rajsand@gmail.com</a>><br>> > > >>> Yanıt Adresi:linux clustering <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>
> > > >>> Konu: Re: [Linux-cluster] Is there any backup heartbeat channel<br>> > > >>> Kime: linux clustering <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>
> > > >>><br>> > > >>><br>> > > >>> Greetings,<br>> > > >>><br>> > > >>>><br>> > > >>>> 2009/8/12 Hakan VELIOGLU <<a href="mailto:veliogluh@itu.edu.tr" target="_blank">veliogluh@itu.edu.tr</a>>:<br>
> > > >>>><br>> > > >>>> Hi list,<br>> > > >>>>><br>> > > >>>>> I am trying a two node cluster with RH 5.3 on Sun X4150 hardware. I<br>
> > use<br>> > > >>>>> a<br>> > > >>>>><br>> > > >>>>><br>> > > >>>> IIRC, Sun x4150 has four ethernet ports. Two can be used for outside<br>
> > > >>>> networking and two can be bonded and used for heartbeat.<br>> > > >>>><br>> > > >>>> I think, I couldn't explain my networking. I use two ethernet ports<br>
> > for<br>> > > >>> xen<br>> > > >>> vm which are trunk and bonded ports. Then there left two. Our network<br>> > > >>> topology (which is out of my control) available for one port for<br>
> > server<br>> > > >>> control (SSH).<br>> > > >>><br>> > > >><br>> > > >> So you can't use a bonded port for both server management and cluster<br>
> > > >> communications, can you? You can configure an active-passive bonding<br>> > and<br>> > > >> then you can have many virtual interfaces on top of that, i.e:<br>> > bond0:0,<br>
> > > >> bond0:1 and assign them the ip addesses you need.<br>> > > >><br>> > > >><br>> > > >> I use the other one with a cross over cable for heartbeat. So there is<br>
> > no<br>> > > >><br>> > > >>> way for bonding these two interfaces. Of course if I buy an extra<br>> > switch<br>> > > >>> I<br>> > > >>> may do this.<br>
> > > >>><br>> > > >><br>> > > >> You can connect them to the same switch (though you lost kind of<br>> > > >> redundancy), or you can use two crossover cables and move the<br>
> > management<br>> > > >> IP<br>> > > >> to the same ports you are using for the vm's.<br>> > > >><br>> > > >> Greetings,<br>> > > >> Juanra<br>
> > > >><br>> > > >><br>> > > >>> I don't realy understand why there is no backup heartbeat channel.<br>> > LVS<br>> > > >>> and<br>> > > >>> MS cluster has this ability.<br>
> > > >>><br>> > > >>><br>> > > >>>> ALOM can be used for fencing and can be on a seperate subnet if<br>> > > >>>> required.<br>> > > >>>><br>
> > > >>>> I used this for fencing_ipmilan.<br>> > > >>><br>> > > >>><br>> > > >>>> Regards<br>> > > >>>><br>> > > >>>> Rajagopal<br>
> > > >>>><br>> > > >>>> --<br>> > > >>>> Linux-cluster mailing list<br>> > > >>>> <a href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>
> > > >>>> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>> > > >>>><br>> > > >>>><br>
> > > >>>><br>> > > >>> ----- <a href="mailto:raju.rajsand@gmail.com" target="_blank">raju.rajsand@gmail.com</a> den iletiyi bitir -----<br>> > > >>><br>> > > >>><br>
> > > >>><br>> > > >>><br>> > > >>> --<br>> > > >>> Linux-cluster mailing list<br>> > > >>> <a href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>
> > > >>> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>> > > >>><br>> > > >>><br>
> > > >><br>> > > ><br>> > > > ----- <a href="mailto:robejrm@gmail.com" target="_blank">robejrm@gmail.com</a> den iletiyi bitir -----<br>> > > ><br>> > > ><br>
> > > ><br>> > > ><br>> > > > --<br>> > > > Linux-cluster mailing list<br>> > > > <a href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>
> > > > <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>> > > ><br>> > > -------------- next part --------------<br>
> > > An HTML attachment was scrubbed...<br>> > > URL:<br>> > <a href="https://www.redhat.com/archives/linux-cluster/attachments/20090813/cd4dc079/attachment.html" target="_blank">https://www.redhat.com/archives/linux-cluster/attachments/20090813/cd4dc079/attachment.html</a><br>
> > ><br>> > > ------------------------------<br>> > ><br>> > > Message: 5<br>> > > Date: Thu, 13 Aug 2009 10:07:13 -0400<br>> > > From: Nehemias Jahcob <<a href="mailto:nehemiasjahcob@gmail.com" target="_blank">nehemiasjahcob@gmail.com</a>><br>
> > > Subject: [Linux-cluster] RHCS on KVM<br>> > > To: linux clustering <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>> > > Message-ID:<br>> > > <<a href="mailto:5f61ab380908130707q5c936504k7351d0d6b3459090@mail.gmail.com" target="_blank">5f61ab380908130707q5c936504k7351d0d6b3459090@mail.gmail.com</a>><br>
> > > Content-Type: text/plain; charset="iso-8859-1"<br>> > ><br>> > > Hi.<br>> > ><br>> > > How to create a cluster of 2 nodes in rhel5.4 (or Fedora 10) with KVM?<br>
> > ><br>> > > With XEN follow this guide:<br>> > > <a href="http://sources.redhat.com/cluster/wiki/VMClusterCookbook?highlight" target="_blank">http://sources.redhat.com/cluster/wiki/VMClusterCookbook?highlight</a> =<br>
> > > (CategoryHowTo).<br>> > ><br>> > > Do you have a guide to implementation of RHCS in KVM?<br>> > ><br>> > > Thank you all.<br>> > > NJ<br>> > > -------------- next part --------------<br>
> > > An HTML attachment was scrubbed...<br>> > > URL:<br>> > <a href="https://www.redhat.com/archives/linux-cluster/attachments/20090813/f3a69a80/attachment.html" target="_blank">https://www.redhat.com/archives/linux-cluster/attachments/20090813/f3a69a80/attachment.html</a><br>
> > ><br>> > > ------------------------------<br>> > ><br>> > > Message: 6<br>> > > Date: Thu, 13 Aug 2009 14:16:47 +0000<br>> > > From: NTOUGHE GUY-SERGE <<a href="mailto:ntoughe@hotmail.com" target="_blank">ntoughe@hotmail.com</a>><br>
> > > Subject: [Linux-cluster] Cman hang<br>> > > To: <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>> > > Message-ID: <BAY119-W410E2F250E8B461752CFC9A5050@phx.gbl><br>
> > > Content-Type: text/plain; charset="iso-8859-1"<br>> > ><br>> > ><br>> > ><br>> > > Hi gurus,<br>> > ><br>> > > i installed RHEL 5.3 on 2 servers which participating to a cluster<br>
> > composed of these 2 nodes:<br>> > > kernel version:<br>> > > kernel-headers-2.6.18-128.el5<br>> > > kernel-devel-2.6.18-128.el5<br>> > > kernel-2.6.18-128.el5<br>> > > cman-devel-2.0.98-1.el5_3.1<br>
> > > cman-2.0.98-1.el5_3.1<br>> > > cluster-cim-0.12.1-2.el5<br>> > > lvm2-cluster-2.02.40-7.el5<br>> > > cluster-snmp-0.12.1-2.el5<br>> > > modcluster-0.12.1-2.el5<br>> > > When i want to start cman the following message is sent:<br>
> > > cman not started: Multicast and node address families differ.<br>> > /usr/sbin/cman_tool: aisexec daemon didn't start<br>> > > [FAILED]<br>> > ><br>> > > I trier to mount gfs2<br>
> > > and i got theses messages:<br>> > > # mount -t gfs2 /dev/VolGroup01/LogVol01 /appli/prod --o<br>> > lockTablename=arvclust:/appli/prod, Lockproto=lock_dlm<br>> > ><br>> > > /sbin/mount.gfs2: can't connect to gfs_controld: Connection refused<br>
> > ><br>> > > /sbin/mount.gfs2: can't connect to gfs_controld: Connection refused<br>> > ><br>> > > /sbin/mount.gfs2: can't connect to gfs_controld: Connection refused<br>> > ><br>
> > > /sbin/mount.gfs2: can't connect to gfs_controld: Connection refused<br>> > ><br>> > > do you have any clues?<br>> > > Please it's an hurry, i waste long time to lok for solution help<br>
> > > regards<br>> > ><br>> > ><br>> > ><br>> > ><br>> > ><br>> > ><br>> > ><br>> > ><br>> > > <a href="mailto:ntoughe@hotmail.com" target="_blank">ntoughe@hotmail.com</a><br>
> > ><br>> > ><br>> > > _________________________________________________________________<br>> > > With Windows Live, you can organize, edit, and share your photos.<br>> > ><br>
> > <a href="http://www.microsoft.com/middleeast/windows/windowslive/products/photo-gallery-edit.aspx" target="_blank">http://www.microsoft.com/middleeast/windows/windowslive/products/photo-gallery-edit.aspx</a><br>
> > > -------------- next part --------------<br>> > > An HTML attachment was scrubbed...<br>> > > URL:<br>> > <a href="https://www.redhat.com/archives/linux-cluster/attachments/20090813/0a55101d/attachment.html" target="_blank">https://www.redhat.com/archives/linux-cluster/attachments/20090813/0a55101d/attachment.html</a><br>
> > ><br>> > > ------------------------------<br>> > ><br>> > > Message: 7<br>> > > Date: Thu, 13 Aug 2009 09:14:24 -0500<br>> > > From: David Teigland <<a href="mailto:teigland@redhat.com" target="_blank">teigland@redhat.com</a>><br>
> > > Subject: Re: [Linux-cluster] gfs2 mount hangs<br>> > > To: Wengang Wang <<a href="mailto:wen.gang.wang@oracle.com" target="_blank">wen.gang.wang@oracle.com</a>><br>> > > Cc: linux clustering <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>
> > > Message-ID: <<a href="mailto:20090813141424.GA8148@redhat.com" target="_blank">20090813141424.GA8148@redhat.com</a>><br>> > > Content-Type: text/plain; charset=us-ascii<br>> > ><br>> > > On Thu, Aug 13, 2009 at 02:22:11PM +0800, Wengang Wang wrote:<br>
> > > > <cman two_node="1" expected_votes="2"/><br>> > ><br>> > > That's not a valid combination, two_node="1" requires expected_votes="1".<br>
> > ><br>> > > You didn't mention which userspace cluster version/release you're using,<br>> > or<br>> > > include any status about the cluster. Before trying to mount gfs on<br>> > either<br>
> > > node, collect from both nodes:<br>> > ><br>> > > cman_tool status<br>> > > cman_tool nodes<br>> > > group_tool<br>> > ><br>> > > Then mount on the first node and collect the same information, then try<br>
> > > mounting on the second node, collect the same information, and look for<br>> > any<br>> > > errors in /var/log/messages.<br>> > ><br>> > > Since you're using new kernels, you need to be using the cluster 3.0<br>
> > userspace<br>> > > code. You're using the old manual fencing config. There is no more<br>> > > fence_manual; the new way to configure manual fencing is to not configure<br>> > any<br>
> > > fencing at all. So, your cluster.conf should look like this:<br>> > ><br>> > > <?xml version="1.0"?><br>> > > <cluster name="testgfs2" config_version="1"><br>
> > > <cman two_node="1" expected_votes="1"/><br>> > > <clusternodes><br>> > > <clusternode name="cool" nodeid="1"/><br>> > > <clusternode name="desk" nodeid="2"/><br>
> > > </clusternodes><br>> > > </cluster><br>> > ><br>> > > Dave<br>> > ><br>> > ><br>> > ><br>> > > ------------------------------<br>> > ><br>
> > > Message: 8<br>> > > Date: Thu, 13 Aug 2009 10:39:46 -0400<br>> > > From: Lon Hohberger <<a href="mailto:lhh@redhat.com" target="_blank">lhh@redhat.com</a>><br>> > > Subject: Re: [Linux-cluster] Qdisk question<br>
> > > To: linux clustering <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>> > > Message-ID: <1250174386.23376.1440.camel@localhost.localdomain><br>
> > > Content-Type: text/plain<br>> > ><br>> > > On Thu, 2009-08-13 at 00:45 +0200, brem belguebli wrote:<br>> > ><br>> > > > My understanding of qdisk is that it is used as a tie-breaker, but it<br>
> > > > looks like it is more a heatbeat vector than a simple tie-breaker.<br>> > ><br>> > > Right, it's a secondary membership algorithm.<br>> > ><br>> > ><br>> > > > Until here, no real problem indeed, if the site gets apart from the<br>
> > > > other prod site and also from the third site (hosting the iscsi target<br>> > > > qdisk) the 2 nodes from the failing site get evicted from the cluster.<br>> > > ><br>> > > ><br>
> > > > But, what if my third site gets isolated while the 2 prod ones are<br>> > > > fine ?<br>> > ><br>> > > Qdisk votes will not be presented to CMAN any more, but the two sites<br>
> > > should remain online if they still have a "majority" of votes.<br>> > ><br>> > ><br>> > > > The real question is what happens in case all the nodes loose access<br>> > > > to the qdisk while they're still able to see each others ?<br>
> > ><br>> > > Qdisk is just a vote like other voting mechanisms. If all nodes lose<br>> > > access at the same time, it should behave like a node death. However,<br>> > > the default action if _one_ node loses access is to kill that node (even<br>
> > > if CMAN still sees it).<br>> > ><br>> > ><br>> > > > The 4 nodes have each 1 vote and the qdisk 1 vote. The expected quorum<br>> > > > is 3.<br>> > ><br>> > ><br>
> > > > If I loose the qdisk, the number of votes falls to 4, the cluster is<br>> > > > quorate (4>3) but it looks like everything goes bad, each node<br>> > > > deactivate itself as it can't write its alive status (--> heartbeat<br>
> > > > vector) to the qdisk even if the network heartbeating is working<br>> > > > fine.<br>> > ><br>> > > What happens specifically? Most of the actions qdiskd performs are<br>> > > configurable. For example, if the nodes are rebooting, you can turn<br>
> > > that behavior off.<br>> > ><br>> > ><br>> > ><br>> > > I wrote a simple 'ping' tiebreaker based the behaviors in RHEL3. It<br>> > > functions in many ways in the same manner as qdiskd with respect to vote<br>
> > > advertisement to CMAN, but without needing a disk - maybe you would find<br>> > > it useful?<br>> > ><br>> > > <a href="http://people.redhat.com/lhh/qnet.tar.gz" target="_blank">http://people.redhat.com/lhh/qnet.tar.gz</a><br>
> > ><br>> > > -- Lon<br>> > ><br>> > ><br>> > ><br>> > > ------------------------------<br>> > ><br>> > > Message: 9<br>> > > Date: Thu, 13 Aug 2009 17:02:15 +0200<br>
> > > From: Juan Ramon Martin Blanco <<a href="mailto:robejrm@gmail.com" target="_blank">robejrm@gmail.com</a>><br>> > > Subject: Re: [Linux-cluster] Cman hang<br>> > > To: linux clustering <<a href="mailto:linux-cluster@redhat.com" target="_blank">linux-cluster@redhat.com</a>><br>
> > > Message-ID:<br>> > > <<a href="mailto:8a5668960908130802p4f5168cbueda86d1e6f1324bb@mail.gmail.com" target="_blank">8a5668960908130802p4f5168cbueda86d1e6f1324bb@mail.gmail.com</a>><br>> > > Content-Type: text/plain; charset="iso-8859-1"<br>
> > ><br>> > > On Thu, Aug 13, 2009 at 4:16 PM, NTOUGHE GUY-SERGE <<a href="mailto:ntoughe@hotmail.com" target="_blank">ntoughe@hotmail.com</a><br>> > >wrote:<br>> > ><br>> > > ><br>
> > > > Hi gurus,<br>> > > ><br>> > > > i installed RHEL 5.3 on 2 servers which participating to a cluster<br>> > > > composed of these 2 nodes:<br>> > > > kernel version:<br>
> > > > kernel-headers-2.6.18-128.el5<br>> > > > kernel-devel-2.6.18-128.el5<br>> > > > kernel-2.6.18-128.el5<br>> > > > cman-devel-2.0.98-1.el5_3.1<br>> > > > cman-2.0.98-1.el5_3.1<br>
> > > > cluster-cim-0.12.1-2.el5<br>> > > > lvm2-cluster-2.02.40-7.el5<br>> > > > cluster-snmp-0.12.1-2.el5<br>> > > > modcluster-0.12.1-2.el5<br>> > > > When i want to start cman the following message is sent:<br>
> > > > cman not started: Multicast and node address families differ.<br>> > > > /usr/sbin/cman_tool: aisexec daemon didn't start<br>> > > > [FAILED]<br>> > > ><br>> > > Please, show us your cluster.conf file so we can help.<br>
> > ><br>> > > Regards,<br>> > > Juanra<br>> > ><br>> > > ><br>> > > > I trier to mount gfs2<br>> > > > and i got theses messages:<br>> > > > # mount -t gfs2 /dev/VolGroup01/LogVol01 /appli/prod --o<br>
> > > > lockTablename=arvclust:/appli/prod, Lockproto=lock_dlm<br>> > > ><br>> > > > /sbin/mount.gfs2: can't connect to gfs_controld: Connection refused<br>> > > ><br>> > > > /sbin/mount.gfs2: can't connect to gfs_controld: Connection refused<br>
> > > ><br>> > > > /sbin/mount.gfs2: can't connect to gfs_controld: Connection refused<br>> > > ><br>> > > > /sbin/mount.gfs2: can't connect to gfs_controld: Connection refused<br>
> > > ><br>> > > > do you have any clues?<br>> > > > Please it's an hurry, i waste long time to lok for solution help<br>> > > > regards<br>> > > ><br>> > > ><br>
> > > ><br>> > > ><br>> > > ><br>> > > ><br>> > > ><br>> > > ><br>> > > > <a href="mailto:ntoughe@hotmail.com" target="_blank">ntoughe@hotmail.com</a><br>
> > > ><br>> > > ><br>> > > ><br>> > > > ------------------------------<br>> > > > With Windows Live, you can organize, edit, and share your photos.<<br>> > <a href="http://www.microsoft.com/middleeast/windows/windowslive/products/photo-gallery-edit.aspx" target="_blank">http://www.microsoft.com/middleeast/windows/windowslive/products/photo-gallery-edit.aspx</a><br>
> > ><br>> > > ><br>> > > > --<br>> > > > Linux-cluster mailing list<br>> > > > <a href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>
> > > > <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>> > > ><br>> > > -------------- next part --------------<br>
> > > An HTML attachment was scrubbed...<br>> > > URL:<br>> > <a href="https://www.redhat.com/archives/linux-cluster/attachments/20090813/9ecbcab1/attachment.html" target="_blank">https://www.redhat.com/archives/linux-cluster/attachments/20090813/9ecbcab1/attachment.html</a><br>
> > ><br>> > > ------------------------------<br>> > ><br>> > > --<br>> > > Linux-cluster mailing list<br>> > > <a href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>
> > > <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>> > ><br>> > > End of Linux-cluster Digest, Vol 64, Issue 16<br>
> > > *********************************************<br>> ><br>> > ------------------------------<br>> > See all the ways you can stay connected to friends and family<<a href="http://www.microsoft.com/windows/windowslive/default.aspx" target="_blank">http://www.microsoft.com/windows/windowslive/default.aspx</a>><br>
> ><br>> > --<br>> > Linux-cluster mailing list<br>> > <a href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>> > <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
> ><br>> -------------- next part --------------<br>> An HTML attachment was scrubbed...<br>> URL: <a href="https://www.redhat.com/archives/linux-cluster/attachments/20090813/f9557411/attachment.html" target="_blank">https://www.redhat.com/archives/linux-cluster/attachments/20090813/f9557411/attachment.html</a><br>
> <br>> ------------------------------<br>> <br>> --<br>> Linux-cluster mailing list<br>> <a href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
> <br>> End of Linux-cluster Digest, Vol 64, Issue 18<br>> *********************************************<br><br><hr>Share your memories online with anyone you want <a href="http://www.microsoft.com/middleeast/windows/windowslive/products/photos-share.aspx?tab=1" target="_blank">anyone you want.</a></div>

<br>--<br>
Linux-cluster mailing list<br>
<a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br></blockquote></div><br>