Hello, <br><br>this thing happened to me this morning. <br><br>I try to restart cman with service cman start in node2 and it works,<br><br>For some reason your cman on node2 is stopped. <br><br>HTH<br><br>ESG<br><br><div class="gmail_quote">
2009/5/18 ravi kumar <span dir="ltr"><<a href="mailto:ravikumar.c25@gmail.com">ravikumar.c25@gmail.com</a>></span><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Thanks Ian Hayes,<br>
<br>
 Again another problem i m facing. GFS not able to mount.<br>
<br>
Please find the details<br>
<br>
dbnode1:/root # clustat<br>
Cluster Status for md_cluster @ Mon May 18 18:15:43 2009<br>
<div class="im">Member Status: Quorate<br>
<br>
 Member Name                                              ID   Status<br>
 ------ ----                                              ---- ------<br>
 <a href="http://dbnode1.xtks.com" target="_blank">dbnode1.xtks.com</a>                            1 Online<br>
</div><div class="im"> <a href="http://dbnode2.xtks.com" target="_blank">dbnode2.xtks.com</a>                            2 Online, Local<br>
<br>
<br>
<br>
<br>
<br>
</div>dbnode1:/root # gfs_mkfs -t md_cluster:test1 -p lock_dlm -j 2<br>
/dev/vg_cluster1/test1<br>
This will destroy any data on /dev/vg_cluster1/test1.<br>
  It appears to contain a gfs2 filesystem.<br>
<br>
Are you sure you want to proceed? [y/n] y<br>
<br>
Device:                    /dev/vg_cluster1/test1<br>
Blocksize:                 4096<br>
Filesystem Size:           5177000<br>
Journals:                  2<br>
Resource Groups:           80<br>
Locking Protocol:          lock_dlm<br>
Lock Table:                md_cluster:test1<br>
<br>
Syncing...<br>
All Done<br>
dbnode1:/root<br>
<br>
dbnode1:/root # cat /etc/fstab<br>
/dev/rootvg/rootvol     /                       ext3    defaults        1 1<br>
/dev/rootvg/varvol      /var                    ext3<br>
defaults,nosuid        1 2<br>
/dev/rootvg/homevol     /home                   ext3<br>
defaults,nosuid        1 2<br>
/dev/rootvg/optvol      /opt                    ext3    defaults        1 2<br>
LABEL=/boot             /boot                   ext3<br>
defaults,nosuid        1 2<br>
tmpfs                   /dev/shm                tmpfs<br>
defaults,nosuid        0 0<br>
devpts                  /dev/pts                devpts  gid=5,mode=620  0 0<br>
sysfs                   /sys                    sysfs   defaults        0 0<br>
proc                    /proc                   proc    defaults        0 0<br>
/dev/rootvg/swapvol     swap                    swap    defaults        0 0<br>
/dev/cdrom    /mnt/cdrom  auto    pamconsole,exec,noauto,managed  0 0<br>
/dev/vg_cluster1/test1  /test1   gfs      defaults 0 0<br>
<br>
dbnode1:/root # mount -a<br>
/sbin/mount.gfs: error mounting /dev/mapper/vg_cluster1-test1 on<br>
/test1: No such device<br>
<br>
dbnode1:/root # clustat<br>
Cluster Status for md_cluster @ Mon May 18 18:41:30 2009<br>
<div class="im">Member Status: Quorate<br>
<br>
 Member Name                                              ID   Status<br>
 ------ ----                                              ---- ------<br>
 <a href="http://dbnode1.xtks.com" target="_blank">dbnode1.xtks.com</a>                            1 Online, Local<br>
 <a href="http://dbnode2.xtks.com" target="_blank">dbnode2.xtks.com</a>                            2 Offline<br>
<br>
</div>dbnode1:/root #<br>
<br>
<br>
<br>
<br>
<br>
<br>
dbnode2:/root # clustat<br>
Cluster Status for md_cluster @ Mon May 18 18:15:52 2009<br>
<div class="im">Member Status: Quorate<br>
<br>
 Member Name                                              ID   Status<br>
 ------ ----                                              ---- ------<br>
 <a href="http://dbnode1.xtks.com" target="_blank">dbnode1.xtks.com</a>                            1 Online, Local<br>
</div> <a href="http://dbnode2.xtks.com" target="_blank">dbnode2.xtks.com</a>                            2 Online<br>
<br>
<br>
<br>
dbnode2:/root # mount -a<br>
/sbin/mount.gfs: can't connect to gfs_controld: Connection refused<br>
/sbin/mount.gfs: can't connect to gfs_controld: Connection refused<br>
/sbin/mount.gfs: can't connect to gfs_controld: Connection refused<br>
/sbin/mount.gfs: can't connect to gfs_controld: Connection refused<br>
/sbin/mount.gfs: can't connect to gfs_controld: Connection refused<br>
/sbin/mount.gfs: can't connect to gfs_controld: Connection refused<br>
/sbin/mount.gfs: can't connect to gfs_controld: Connection refused<br>
/sbin/mount.gfs: can't connect to gfs_controld: Connection refused<br>
/sbin/mount.gfs: can't connect to gfs_controld: Connection refused<br>
/sbin/mount.gfs: can't connect to gfs_controld: Connection refused<br>
/sbin/mount.gfs: gfs_controld not running<br>
/sbin/mount.gfs: error mounting lockproto lock_dlm<br>
dbnode2:/root #<br>
<br>
<br>
<br>
dbnode2:/root # clustat<br>
Could not connect to CMAN: Connection refused<br>
dbnode2:/root #<br>
<div><div></div><div class="h5"><br>
On Mon, May 18, 2009 at 3:04 AM, Ian Hayes <<a href="mailto:cthulhucalling@gmail.com">cthulhucalling@gmail.com</a>> wrote:<br>
> Try adding clean_start="1" to the fence_daemon line of both members and try<br>
> it again.<br>
><br>
> On Sun, May 17, 2009 at 11:28 AM, ravi kumar <<a href="mailto:ravikumar.c25@gmail.com">ravikumar.c25@gmail.com</a>><br>
> wrote:<br>
>><br>
>> Hi Linux cluster experts,<br>
>><br>
>>  Not able to add as a member in dbnode1 & same as dbnode2 side. Please<br>
>> help...<br>
>><br>
>> Please find the details as below<br>
>><br>
>><br>
>><br>
><br>
><br>
</div></div><div><div></div><div class="h5">> --<br>
> Linux-cluster mailing list<br>
> <a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
> <a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
><br>
<br>
--<br>
Linux-cluster mailing list<br>
<a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
</div></div></blockquote></div><br>