I ran into same issue. I had a node that was working fine and then it locked up. When I tried to start cman - it would tell me openaix service cannot read library since the buffer was full. <br><br>All this went away after I downgraded cman to recomended version.... Is there a workaround, a fix?<br>
<br><div class="gmail_quote">On Mon, Sep 28, 2009 at 10:03 AM, Paras pradhan <span dir="ltr"><<a href="mailto:pradhanparas@gmail.com">pradhanparas@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
The only thing I noticed is the message after stopping the vm using xm<br>
in all nodes and starting using clusvcadm is<br>
<br>
"Virtual machine guest1 is blocked"<br>
<br>
The whole DEBUG file is attached.<br>
<br>
<br>
Thanks<br>
Paras.<br>
<br>
On Fri, Sep 25, 2009 at 5:53 PM, brem belguebli<br>
<div><div></div><div class="h5"><<a href="mailto:brem.belguebli@gmail.com">brem.belguebli@gmail.com</a>> wrote:<br>
> There's a problem with the script that is called by rgmanager to start<br>
> the VM, I don't know what causes it<br>
><br>
> May be you should try something like :<br>
><br>
> 1) stop the VM on all nodes with xm commands<br>
> 2) edit the /usr/share/cluster/vm.sh script and add the following<br>
> lines (after the #!/bin/bash ):<br>
>   exec >/tmp/DEBUG 2>&1<br>
>   set -x<br>
> 3) start the VM with clusvcadm -e vm:guest1<br>
><br>
> It should fail as it did before.<br>
><br>
> edit the the /tmp/DEBUG file and you will be able to see where it<br>
> fails (it may generate a lot of debug)<br>
><br>
> 4) remove the debug lines from /usr/share/cluster/vm.sh<br>
><br>
> Post the DEBUG file if you're not able to see where it fails.<br>
><br>
> Brem<br>
><br>
> 2009/9/26 Paras pradhan <<a href="mailto:pradhanparas@gmail.com">pradhanparas@gmail.com</a>>:<br>
>> No I am not manually starting not using automatic init scripts.<br>
>><br>
>> I started the vm using: clusvcadm -e vm:guest1<br>
>><br>
>> I have just stopped using clusvcadm -s vm:guest1. For few seconds it<br>
>> says guest1 started . But after a while I can see the guest1 on all<br>
>> three nodes.<br>
>><br>
>> clustat says:<br>
>><br>
>>  Service Name                                            Owner (Last)<br>
>>                                          State<br>
>>  ------- ----                                            ----- ------<br>
>>                                          -----<br>
>>  vm:guest1                                               (none)<br>
>>                                          stopped<br>
>><br>
>> But I can see the vm from xm li.<br>
>><br>
>> This is what I can see from the log:<br>
>><br>
>><br>
>> Sep 25 17:19:01 cvtst1 clurgmgrd[4298]: <notice> start on vm "guest1"<br>
>> returned 1 (generic error)<br>
>> Sep 25 17:19:01 cvtst1 clurgmgrd[4298]: <warning> #68: Failed to start<br>
>> vm:guest1; return value: 1<br>
>> Sep 25 17:19:01 cvtst1 clurgmgrd[4298]: <notice> Stopping service vm:guest1<br>
>> Sep 25 17:19:02 cvtst1 clurgmgrd[4298]: <notice> Service vm:guest1 is<br>
>> recovering<br>
>> Sep 25 17:19:15 cvtst1 clurgmgrd[4298]: <notice> Recovering failed<br>
>> service vm:guest1<br>
>> Sep 25 17:19:16 cvtst1 clurgmgrd[4298]: <notice> start on vm "guest1"<br>
>> returned 1 (generic error)<br>
>> Sep 25 17:19:16 cvtst1 clurgmgrd[4298]: <warning> #68: Failed to start<br>
>> vm:guest1; return value: 1<br>
>> Sep 25 17:19:16 cvtst1 clurgmgrd[4298]: <notice> Stopping service vm:guest1<br>
>> Sep 25 17:19:17 cvtst1 clurgmgrd[4298]: <notice> Service vm:guest1 is<br>
>> recovering<br>
>><br>
>><br>
>> Paras.<br>
>><br>
>> On Fri, Sep 25, 2009 at 5:07 PM, brem belguebli<br>
>> <<a href="mailto:brem.belguebli@gmail.com">brem.belguebli@gmail.com</a>> wrote:<br>
>>> Have you started  your VM via rgmanager (clusvcadm -e vm:guest1) or<br>
>>> using xm commands out of cluster control  (or maybe a thru an<br>
>>> automatic init script ?)<br>
>>><br>
>>> When clustered, you should never be starting services (manually or<br>
>>> thru automatic init script) out of cluster control<br>
>>><br>
>>> The thing would be to stop your vm on all the nodes with the adequate<br>
>>> xm command (not using xen myself) and try to start it with clusvcadm.<br>
>>><br>
>>> Then see if it is started on all nodes (send clustat output)<br>
>>><br>
>>><br>
>>><br>
>>> 2009/9/25 Paras pradhan <<a href="mailto:pradhanparas@gmail.com">pradhanparas@gmail.com</a>>:<br>
>>>> Ok. Please see below. my vm is running on all nodes though clustat<br>
>>>> says it is stopped.<br>
>>>><br>
>>>> --<br>
>>>> [root@cvtst1 ~]# clustat<br>
>>>> Cluster Status for test @ Fri Sep 25 16:52:34 2009<br>
>>>> Member Status: Quorate<br>
>>>><br>
>>>>  Member Name                                                     ID   Status<br>
>>>>  ------ ----                                                     ---- ------<br>
>>>>  cvtst2                                                    1 Online, rgmanager<br>
>>>>  cvtst1                                                     2 Online,<br>
>>>> Local, rgmanager<br>
>>>>  cvtst3                                                     3 Online, rgmanager<br>
>>>><br>
>>>>  Service Name                                            Owner (Last)<br>
>>>>                                          State<br>
>>>>  ------- ----                                            ----- ------<br>
>>>>                                          -----<br>
>>>>  vm:guest1                                               (none)<br>
>>>>                                          stopped<br>
>>>> [root@cvtst1 ~]#<br>
>>>><br>
>>>><br>
>>>> ---<br>
>>>> o/p of xm li on cvtst1<br>
>>>><br>
>>>> --<br>
>>>> [root@cvtst1 ~]# xm li<br>
>>>> Name                                      ID Mem(MiB) VCPUs State   Time(s)<br>
>>>> Domain-0                                   0     3470     2 r-----  28939.4<br>
>>>> guest1                                     7      511     1 -b----   7727.8<br>
>>>><br>
>>>> o/p of xm li on cvtst2<br>
>>>><br>
>>>> --<br>
>>>> [root@cvtst2 ~]# xm li<br>
>>>> Name                                      ID Mem(MiB) VCPUs State   Time(s)<br>
>>>> Domain-0                                   0     3470     2 r-----  31558.9<br>
>>>> guest1                                    21      511     1 -b----   7558.2<br>
>>>> ---<br>
>>>><br>
>>>> Thanks<br>
>>>> Paras.<br>
>>>><br>
>>>><br>
>>>><br>
>>>> On Fri, Sep 25, 2009 at 4:22 PM, brem belguebli<br>
>>>> <<a href="mailto:brem.belguebli@gmail.com">brem.belguebli@gmail.com</a>> wrote:<br>
>>>>> It looks like no.<br>
>>>>><br>
>>>>> can you send an output of clustat  of when the VM is running on<br>
>>>>> multiple nodes at the same time?<br>
>>>>><br>
>>>>> And by the way, another one after having stopped (clusvcadm -s vm:guest1) ?<br>
>>>>><br>
>>>>><br>
>>>>><br>
>>>>> 2009/9/25 Paras pradhan <<a href="mailto:pradhanparas@gmail.com">pradhanparas@gmail.com</a>>:<br>
>>>>>> Anyone having issue as mine? Virtual machine service is not being<br>
>>>>>> properly handled by the cluster.<br>
>>>>>><br>
>>>>>><br>
>>>>>> Thanks<br>
>>>>>> Paras.<br>
>>>>>><br>
>>>>>> On Mon, Sep 21, 2009 at 9:55 AM, Paras pradhan <<a href="mailto:pradhanparas@gmail.com">pradhanparas@gmail.com</a>> wrote:<br>
>>>>>>> Ok.. here is my cluster.conf file<br>
>>>>>>><br>
>>>>>>> --<br>
>>>>>>> [root@cvtst1 cluster]# more cluster.conf<br>
>>>>>>> <?xml version="1.0"?><br>
>>>>>>> <cluster alias="test" config_version="9" name="test"><br>
>>>>>>>        <fence_daemon clean_start="0" post_fail_delay="0" post_join_delay="3"/><br>
>>>>>>>        <clusternodes><br>
>>>>>>>                <clusternode name="cvtst2" nodeid="1" votes="1"><br>
>>>>>>>                        <fence/><br>
>>>>>>>                </clusternode><br>
>>>>>>>                <clusternode name="cvtst1" nodeid="2" votes="1"><br>
>>>>>>>                        <fence/><br>
>>>>>>>                </clusternode><br>
>>>>>>>                <clusternode name="cvtst3" nodeid="3" votes="1"><br>
>>>>>>>                        <fence/><br>
>>>>>>>                </clusternode><br>
>>>>>>>        </clusternodes><br>
>>>>>>>        <cman/><br>
>>>>>>>        <fencedevices/><br>
>>>>>>>        <rm><br>
>>>>>>>                <failoverdomains><br>
>>>>>>>                        <failoverdomain name="myfd1" nofailback="0" ordered="1" restricted="0"><br>
>>>>>>>                                <failoverdomainnode name="cvtst2" priority="3"/><br>
>>>>>>>                                <failoverdomainnode name="cvtst1" priority="1"/><br>
>>>>>>>                                <failoverdomainnode name="cvtst3" priority="2"/><br>
>>>>>>>                        </failoverdomain><br>
>>>>>>>                </failoverdomains><br>
>>>>>>>                <resources/><br>
>>>>>>>                <vm autostart="1" domain="myfd1" exclusive="0" max_restarts="0"<br>
>>>>>>> name="guest1" path="/vms" recovery="r<br>
>>>>>>> estart" restart_expire_time="0"/><br>
>>>>>>>        </rm><br>
>>>>>>> </cluster><br>
>>>>>>> [root@cvtst1 cluster]#<br>
>>>>>>> ------<br>
>>>>>>><br>
>>>>>>> Thanks!<br>
>>>>>>> Paras.<br>
>>>>>>><br>
>>>>>>><br>
>>>>>>> On Sun, Sep 20, 2009 at 9:44 AM, Volker Dormeyer <<a href="mailto:volker@ixolution.de">volker@ixolution.de</a>> wrote:<br>
>>>>>>>> On Fri, Sep 18, 2009 at 05:08:57PM -0500,<br>
>>>>>>>> Paras pradhan <<a href="mailto:pradhanparas@gmail.com">pradhanparas@gmail.com</a>> wrote:<br>
>>>>>>>>> I am using cluster suite for HA of xen virtual machines. Now I am<br>
>>>>>>>>> having another problem. When I start the my xen vm in one node, it<br>
>>>>>>>>> also starts on other nodes. Which daemon controls  this?<br>
>>>>>>>><br>
>>>>>>>> This is usually done bei clurgmgrd (which is part of the rgmanager<br>
>>>>>>>> package). To me, this sounds like a configuration problem. Maybe,<br>
>>>>>>>> you can post your cluster.conf?<br>
>>>>>>>><br>
>>>>>>>> Regards,<br>
>>>>>>>> Volker<br>
>>>>>>>><br>
>>>>>>>> --<br>
>>>>>>>> Linux-cluster mailing list<br>
>>>>>>>> <a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
>>>>>>>> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
>>>>>>>><br>
>>>>>>><br>
>>>>>><br>
>>>>>> --<br>
>>>>>> Linux-cluster mailing list<br>
>>>>>> <a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
>>>>>> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
>>>>>><br>
>>>>><br>
>>>>> --<br>
>>>>> Linux-cluster mailing list<br>
>>>>> <a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
>>>>> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
>>>>><br>
>>>><br>
>>>> --<br>
>>>> Linux-cluster mailing list<br>
>>>> <a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
>>>> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
>>>><br>
>>><br>
>>> --<br>
>>> Linux-cluster mailing list<br>
>>> <a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
>>> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
>>><br>
>><br>
>> --<br>
>> Linux-cluster mailing list<br>
>> <a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
>> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
>><br>
><br>
> --<br>
> Linux-cluster mailing list<br>
> <a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
><br>
</div></div><br>--<br>
Linux-cluster mailing list<br>
<a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br></blockquote></div><br><br clear="all"><br>-- <br>Alan A.<br>