if you think the problem it's in lvm, put it in the debug man lvm.conf<br><br><div class="gmail_quote">2012/8/2 Gianluca Cecchi <span dir="ltr"><<a href="mailto:gianluca.cecchi@gmail.com" target="_blank">gianluca.cecchi@gmail.com</a>></span><br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On Wed, Aug 1, 2012 at 6:15 PM, Gianluca Cecchi wrote:<br>
> On Wed, 1 Aug 2012 16:26:38 +0200 emmanuel segura wrote:<br>
>> Why you don't remove expected_votes=3 and let the cluster automatic calculate that<br>
><br>
> Thanks for your answer Emmanuel, but cman starts correctly, while the<br>
> problem seems related to<br>
> vgchange -aly<br>
> command hanging.<br>
> But I tried that option too and the cluster hangs at the same point as before.<br>
<br>
Further testing shows that cluster is indeed quorated and problems are<br>
related to lvm...<br>
<br>
I also tried following a more used and clean configuration seen in<br>
examples for 3 nodes + quorum daemon:<br>
<br>
2 votes for each node<br>
<clusternode name="nodeX" nodeid="X" votes="2"><br>
<br>
3 votes for quorum disk<br>
<quorumd device="/dev/mapper/mpathquorum" interval="5"<br>
label="clrhevquorum" tko="24" votes="3"><br>
<br>
with and without expected_votes="9" in <cman ... /> part<br>
<br>
One node + its quorum only config should be ok (2+3 = 5 votes)<br>
<br>
After cman starts and quorumd is not master yet:<br>
<br>
# cman_tool status<br>
Version: 6.2.0<br>
Config Version: 51<br>
Cluster Name: clrhev<br>
Cluster Id: 43203<br>
Cluster Member: Yes<br>
Cluster Generation: 1428<br>
Membership state: Cluster-Member<br>
Nodes: 1<br>
Expected votes: 9<br>
Total votes: 2<br>
Node votes: 2<br>
Quorum: 5 Activity blocked<br>
Active subsystems: 4<br>
Flags:<br>
Ports Bound: 0 178<br>
Node name: intrarhev3<br>
Node ID: 3<br>
Multicast addresses: 239.192.168.108<br>
Node addresses: 192.168.16.30<br>
<br>
Then<br>
# cman_tool status<br>
Version: 6.2.0<br>
Config Version: 51<br>
Cluster Name: clrhev<br>
Cluster Id: 43203<br>
Cluster Member: Yes<br>
Cluster Generation: 1428<br>
Membership state: Cluster-Member<br>
Nodes: 1<br>
Expected votes: 9<br>
Quorum device votes: 3<br>
Total votes: 5<br>
Node votes: 2<br>
Quorum: 5<br>
Active subsystems: 4<br>
Flags:<br>
Ports Bound: 0 178<br>
Node name: intrarhev3<br>
Node ID: 3<br>
Multicast addresses: 239.192.168.108<br>
Node addresses: 192.168.16.30<br>
<br>
And startup continues up to clvmd step<br>
In this phase, while clvmd startup hanges forever I have:<br>
<br>
# dlm_tool ls<br>
dlm lockspaces<br>
name          clvmd<br>
id            0x4104eefa<br>
flags         0x00000000<br>
change        member 1 joined 1 remove 0 failed 0 seq 1,1<br>
members       3<br>
<br>
# ps -ef|grep lv<br>
root      3573  2593  0 01:05 ?        00:00:00 /bin/bash<br>
/etc/rc3.d/S24clvmd start<br>
root      3578     1  0 01:05 ?        00:00:00 clvmd -T30<br>
root      3620     1  0 01:05 ?        00:00:00 /sbin/lvm pvscan<br>
--cache --major 253 --minor 13<br>
root      3804  3322  0 01:09 pts/0    00:00:00 grep lv<br>
<br>
# ps -ef|grep vg<br>
root      3601  3573  0 01:05 ?        00:00:00 /sbin/vgchange -ayl<br>
root      3808  3322  0 01:09 pts/0    00:00:00 grep vg<br>
<br>
# ps -ef|grep lv<br>
root      3573  2593  0 01:05 ?        00:00:00 /bin/bash<br>
/etc/rc3.d/S24clvmd start<br>
root      3578     1  0 01:05 ?        00:00:00 clvmd -T30<br>
root      4008  3322  0 01:13 pts/0    00:00:00 grep lv<br>
<br>
# ps -ef|grep 3578<br>
root      3578     1  0 01:05 ?        00:00:00 clvmd -T30<br>
root      4017  3322  0 01:13 pts/0    00:00:00 grep 3578<br>
<br>
It remains at<br>
# service clvmd start<br>
Starting clvmd:<br>
Activating VG(s):   3 logical volume(s) in volume group "VG_VIRT02" now active<br>
<br>
Is there any way to debug clvmd?<br>
I suppose it communicates through intracluster, correct?<br>
tcpdump output could be of any help?<br>
<br>
Any one already passed to 6.3 (on rhel and/or CentOS) and having all<br>
ok with clvmd?<br>
<br>
BTW: I also tried lvmetad, that is tech preview in 6.3, enabling its<br>
service and putting "use_lvmetad = 1" in lvm.conf but without luck...<br>
<br>
Thanks in advance<br>
<br>
--<br>
Linux-cluster mailing list<br>
<a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
</blockquote></div><br><br clear="all"><br>-- <br>esta es mi vida e me la vivo hasta que dios quiera<br>