hi, <br>maybe u have your cluster have Votes problem, <br><br>when u use "cman_tool status" and if u see like a "Quorum: 2 Activity Blocked" message, then <br>use "cman_tool expected -e 1". Again use "cman_tool status", u will see removed "Activity Blocked" on "Quorum:". <br>
<br>This command pull down Qourum of cluster and cluster will runing (expected vote: n/2+1). This solution a tepmrolary solution for inadequate cluster qourum. (before check config_version="{ver.num}" , u know, must be same number in all nodes)<br>
<br>i hope server for your problem <br><br>(yep, i know.. my englsh are ultra-professionel-imba :) )<br><br><br><div class="gmail_quote">2010/1/22 Terry <span dir="ltr"><<a href="mailto:td3201@gmail.com">td3201@gmail.com</a>></span><br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div><div></div><div class="h5">On Fri, Jan 22, 2010 at 9:00 AM, King, Adam <<a href="mailto:adam.king@intechnology.com">adam.king@intechnology.com</a>> wrote:<br>

> I'm assuming you have read this? <a href="http://sources.redhat.com/cluster/wiki/FAQ/CMAN#cman_2to3" target="_blank">http://sources.redhat.com/cluster/wiki/FAQ/CMAN#cman_2to3</a><br>
><br>
><br>
><br>
><br>
> Adam King<br>
> Systems Administrator<br>
> <a href="mailto:adam.king@intechnology.com">adam.king@intechnology.com</a><br>
><br>
><br>
> InTechnology plc<br>
> Support 0845 120 7070<br>
> Telephone 01423 850000<br>
> Facsimile 01423 858866<br>
> <a href="http://www.intechnology.com" target="_blank">www.intechnology.com</a><br>
><br>
><br>
> -----Original Message-----<br>
><br>
> From: <a href="mailto:linux-cluster-bounces@redhat.com">linux-cluster-bounces@redhat.com</a> [mailto:<a href="mailto:linux-cluster-bounces@redhat.com">linux-cluster-bounces@redhat.com</a>] On Behalf Of Terry<br>
> Sent: 22 January 2010 14:45<br>
> To: linux clustering<br>
> Subject: Re: [Linux-cluster] cannot add 3rd node to running cluster<br>
><br>
> On Mon, Jan 4, 2010 at 1:34 PM, Abraham Alawi <<a href="mailto:a.alawi@auckland.ac.nz">a.alawi@auckland.ac.nz</a>> wrote:<br>
>><br>
>> On 1/01/2010, at 5:13 AM, Terry wrote:<br>
>><br>
>>> On Wed, Dec 30, 2009 at 10:13 AM, Terry <<a href="mailto:td3201@gmail.com">td3201@gmail.com</a>> wrote:<br>
>>>> On Tue, Dec 29, 2009 at 5:20 PM, Jason W. <<a href="mailto:jwellband@gmail.com">jwellband@gmail.com</a>> wrote:<br>
>>>>> On Tue, Dec 29, 2009 at 2:30 PM, Terry <<a href="mailto:td3201@gmail.com">td3201@gmail.com</a>> wrote:<br>
>>>>>> Hello,<br>
>>>>>><br>
>>>>>> I have a working 2 node cluster that I am trying to add a third node<br>
>>>>>> to.   I am trying to use Red Hat's conga (luci) to add the node in but<br>
>>>>><br>
>>>>> If you have two node cluster with two_node=1 in cluster.conf - such as<br>
>>>>> two nodes with no quorum device to break a tie - you'll need to bring<br>
>>>>> the cluster down, change two_node to 0 on both nodes (and rev the<br>
>>>>> cluster version at the top of cluster.conf), bring the cluster up and<br>
>>>>> then add the third node.<br>
>>>>><br>
>>>>> For troubleshooting any cluster issue, take a look at syslog<br>
>>>>> (/var/log/messages by default). It can help to watch it on a<br>
>>>>> centralized syslog server that all of your nodes forward logs to.<br>
>>>>><br>
>>>>> --<br>
>>>>> HTH, YMMV, HANW :)<br>
>>>>><br>
>>>>> Jason<br>
>>>>><br>
>>>>> The path to enlightenment is /usr/bin/enlightenment.<br>
>>>><br>
>>>> Thank you for the response.  /var/log/messages doesn't have any<br>
>>>> errors.  It says cman started then says can't connect to cluster<br>
>>>> infrastructure after a few seconds.  My cluster does not have the<br>
>>>> two_node=1 config now.  Conga took that out for me.  That bit me last<br>
>>>> night because I needed to put that back in.<br>
>>>><br>
>>><br>
>>> CMAN still will not start and gives no debug information.  Anyone know<br>
>>> why cman_tool -d join would not print any output at all?<br>
>>> Troubleshooting this is kind of a nightmare.  I verified that two_node<br>
>>> is not in play.<br>
>>><br>
>>> --<br>
>>> Linux-cluster mailing list<br>
>>> <a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
>>> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
>><br>
>><br>
>> Try this line in your cluster.conf file:<br>
>> <logging debug="on" logfile="/var/log/rhcs.log" to_file="yes"/><br>
>><br>
>> Also, if you are sure your cluster.conf is correct then copy it manually to all the nodes and add clean_start="1" to the fence_daemon line in cluster.conf and run 'service cman start' simultaneously on all the nodes (probably a good idea to do that from runlevel 1 but make sure you have the network up first)<br>

>><br>
>> Cheers,<br>
>><br>
>>  -- Abraham<br>
>><br>
>> ''''''''''''''''''''''''''''''''''''''''''''''''''''''<br>

>> Abraham Alawi<br>
>><br>
>> Unix/Linux Systems Administrator<br>
>> Science IT<br>
>> University of Auckland<br>
>> e: <a href="mailto:a.alawi@auckland.ac.nz">a.alawi@auckland.ac.nz</a><br>
>> p: +64-9-373 7599, ext#: 87572<br>
>><br>
>> ''''''''''''''''''''''''''''''''''''''''''''''''''''''<br>

>><br>
>><br>
><br>
> I am still battling this.  I stopped the cluster completely, modified<br>
> the config and then started it, but that didn't work either.  Same<br>
> issue.  I noticed clurgmgrd wasn't staying running so I then tried<br>
> this:<br>
><br>
> [root@omadvnfs01c ~]# clurgmgrd -d -f<br>
> [7014] notice: Waiting for CMAN to start<br>
><br>
> Then in another window I issued:<br>
> [root@omadvnfs01c ~]# cman_tool join<br>
><br>
><br>
> Then back in the other window below "[7014] notice: Waiting for CMAN<br>
> to start", I got:<br>
> failed acquiring lockspace: Transport endpoint is not connected<br>
> Locks not working!<br>
><br>
> Anyone know what could be going on?<br>
><br>
> --<br>
> Linux-cluster mailing list<br>
> <a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
> This is an email from InTechnology plc, Central House, Beckwith Knowle, Harrogate, UK, HG3 1UG.<br>
> Registered in England 3916586.<br>
><br>
> The contents of this message may be privileged and confidential. If you have received this message in error, you may not use,<br>
><br>
> disclose, copy or distribute its content in any way. Please notify the sender immediately. All messages are scanned for all viruses.<br>
><br>
> --<br>
<br>
</div></div>I didn't but I performed those steps anyways.  As it sits, I have a<br>
three node cluster with only two nodes in it.  Which is bad too but it<br>
is what it is until I figure this out.  Here's my cluster.conf just<br>
for completeness:<br>
<br>
<cluster alias="omadvnfs01" config_version="53" name="omadvnfs01"><br>
        <fence_daemon clean_start="0" post_fail_delay="0" post_join_delay="3"/><br>
        <clusternodes><br>
                <clusternode name="<a href="http://omadvnfs01a.sec.jel.lc" target="_blank">omadvnfs01a.sec.jel.lc</a>" nodeid="1" votes="1"><br>
                        <fence><br>
                                <method name="1"><br>
                                        <device name="omadvnfs01a-drac"/><br>
                                </method><br>
                        </fence><br>
                </clusternode><br>
                <clusternode name="<a href="http://omadvnfs01b.sec.jel.lc" target="_blank">omadvnfs01b.sec.jel.lc</a>" nodeid="2" votes="1"><br>
                        <fence><br>
                                <method name="1"><br>
                                        <device name="omadvnfs01b-drac"/><br>
                                </method><br>
                        </fence><br>
                </clusternode><br>
                <clusternode name="<a href="http://omadvnfs01c.sec.jel.lc" target="_blank">omadvnfs01c.sec.jel.lc</a>" nodeid="3" votes="1"><br>
                        <fence><br>
                                <method name="1"><br>
                                        <device name="omadvnfs01c-drac"/><br>
                                </method><br>
                        </fence><br>
                </clusternode><br>
        </clusternodes><br>
        <cman/><br>
        <fencedevices><br>
                <fencedevice agent="fence_drac" ipaddr="10.98.1.211"<br>
login="root" name="omadvnfs01a-drac" passwd="foo"/><br>
                <fencedevice agent="fence_drac" ipaddr="10.98.1.212"<br>
login="root" name="omadvnfs01b-drac" passwd="foo"/><br>
                <fencedevice agent="fence_drac" ipaddr="10.98.1.213"<br>
login="root" name="omadvnfs01c-drac" passwd="foo"/><br>
        </fencedevices><br>
        <rm><br>
                <failoverdomains><br>
                        <failoverdomain name="fd_omadvnfs01a-nfs"<br>
nofailback="1" ordered="1" restricted="0"><br>
                                <failoverdomainnode<br>
name="<a href="http://omadvnfs01a.sec.jel.lc" target="_blank">omadvnfs01a.sec.jel.lc</a>" priority="1"/><br>
                        </failoverdomain><br>
                        <failoverdomain name="fd_omadvnfs01b-nfs"<br>
nofailback="1" ordered="1" restricted="0"><br>
                                <failoverdomainnode<br>
name="<a href="http://omadvnfs01b.sec.jel.lc" target="_blank">omadvnfs01b.sec.jel.lc</a>" priority="2"/><br>
                        </failoverdomain><br>
                        <failoverdomain name="fd_omadvnfs01c-nfs"<br>
nofailback="1" ordered="1" restricted="0"><br>
                                <failoverdomainnode<br>
name="<a href="http://omadvnfs01c.sec.jel.lc" target="_blank">omadvnfs01c.sec.jel.lc</a>" priority="1"/><br>
                        </failoverdomain><br>
                </failoverdomains><br>
<br>
I am not sure if I did a restart after I did the work though.  When it<br>
says "shutdown cluster software" that is simply a 'service cman stop'<br>
on redhat, right?  Want to make sure I don't need to kill any other<br>
components before updating the configuration manually.  I appreciate<br>
the help.  I am probably going to try it again this afternoon to<br>
double check my work.<br>
<div><div></div><div class="h5"><br>
--<br>
Linux-cluster mailing list<br>
<a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
</div></div></blockquote></div><br>