You have to use /etc/fstab with _netdev option, redhat cluster doesn't support active/active service<br><br><div class="gmail_quote">2012/11/20 james cyriac <span dir="ltr"><<a href="mailto:jamescyriac76@gmail.com" target="_blank">jamescyriac76@gmail.com</a>></span><br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>Hi all,<br><br>i am installing redhat cluster 6 two node cluser.the issue is i am not able to mount my GFS file sytem in both the node at same time..</div>
<div> </div><div>please find my clustat output ..</div>
<div><br><br>[root@saperpprod01 ~]# clustat<br>Cluster Status for sap-cluster1 @ Tue Nov 20 14:51:28 2012<br>Member Status: Quorate</div><div> Member Name                                                     ID   Status<br>

 ------ ----                                                     ---- ------<br> saperpprod01                                                        1 Online, Local, rgmanager<br> saperpprod02                                                        2 Online, rgmanager</div>

<div> Service Name                                                     Owner (Last)                                                     State<br> ------- ----                                                     ----- ------                                                     -----<br>

 service:oracle                                                   saperpprod01                                                     started<br> service:profile-gfs                                              saperpprod01                                                     started<br>

 service:sap                                                      saperpprod01                                                     started<br>[root@saperpprod01 ~]#<br></div><div>oralce and sap is fine and it is flaying in both nodes.i want mount my GFS vols same time at both the nodes.</div>

<div> </div><div>Thanks in advacne</div><div>james</div><div> </div><div> </div><div>but profile-gfs is GFS file system and i want present the GFS mount point same time both the node.please help me this </div><div class="gmail_quote">

On Mon, Nov 19, 2012 at 1:16 PM, Jacek Konieczny <span dir="ltr"><<a href="mailto:jajcus@jajcus.net" target="_blank">jajcus@jajcus.net</a>></span> wrote:<br>
<blockquote style="margin:0px 0px 0px 0.8ex;padding-left:1ex;border-left-color:rgb(204,204,204);border-left-width:1px;border-left-style:solid" class="gmail_quote">Hi,<br>
<br>
I am setting up a cluster using:<br>
<br>
Linux kernel 3.6.6<br>
Corosync 2.1.0<br>
DLM 4.0.0<br>
CLVMD 2.02.98<br>
Pacemaker 1.1.8<br>
DRBD 8.3.13<br>
<br>
Now I have stuck on the 'clean shutdown of a node' scenario.<br>
<br>
It goes like that:<br>
- resources using the shared storage are properly stopped by Pacemaker.<br>
- DRBD is cleanly demoted and unconfigured by Pacemaker<br>
- Pacemaker cleanly exits<br>
- CLVMD is stopped.<br>
– dlm_controld is stopped<br>
– corosync is being stopped<br>
<br>
and at this point the node is fenced (rebooted) by the dlm_controld on<br>
the other node. I would expect it continue with a clean shutdown.<br>
<br>
Any idea how to debug/fix it?<br>
Is this '541 cpg_dispatch error 9' the problem?<br>
<br>
Logs from the node being shut down (log file system mounted with the 'sync'<br>
option, syslog shutdown delayed as much as possible):<br>
<br>
Kernel:<br>
Nov 19 09:49:40 dev1n2 kernel: : [  542.049407] block drbd0: worker terminated<br>
Nov 19 09:49:40 dev1n2 kernel: : [  542.049412] block drbd0: Terminating drbd0_worker<br>
Nov 19 09:49:43 dev1n2 kernel: : [  544.934390] dlm: clvmd: leaving the lockspace group...<br>
Nov 19 09:49:43 dev1n2 kernel: : [  544.937584] dlm: clvmd: group event done 0 0<br>
Nov 19 09:49:43 dev1n2 kernel: : [  544.937897] dlm: clvmd: release_lockspace final free<br>
Nov 19 09:49:43 dev1n2 kernel: : [  544.961407] dlm: closing connection to node 2<br>
Nov 19 09:49:43 dev1n2 kernel: : [  544.961431] dlm: closing connection to node 1<br>
<br>
User space:<br>
Nov 19 09:49:41 dev1n2 pacemakerd[1267]:   notice: stop_child: Stopping cib: Sent -15 to process 1279<br>
Nov 19 09:49:41 dev1n2 notifyd[1139]: [notice] dev1n2[2] stonithd:1281:0x7fc423dfd5e0 is now disconnected from corosync<br>
Nov 19 09:49:41 dev1n2 cib[1279]:   notice: terminate_cs_connection: Disconnecting from Corosync<br>
Nov 19 09:49:41 dev1n2 corosync[1130]:  [TOTEM ] Retransmit List: 1db<br>
Nov 19 09:49:41 dev1n2 notifyd[1139]: [notice] dev1n2[2] cib:1279:0x7fc4240008d0 is now disconnected from corosync<br>
Nov 19 09:49:41 dev1n2 cib[1279]:   notice: terminate_cs_connection: Disconnecting from Corosync<br>
Nov 19 09:49:41 dev1n2 corosync[1130]:  [TOTEM ] Retransmit List: 1dd<br>
Nov 19 09:49:41 dev1n2 pacemakerd[1267]:   notice: pcmk_shutdown_worker: Shutdown complete<br>
Nov 19 09:49:41 dev1n2 notifyd[1139]: [notice] dev1n2[2] pacemakerd:1267:0x7fc423bf8ed0 is now disconnected from corosync<br>
Nov 19 09:49:41 dev1n2 notifyd[1139]: [notice] dev1n2[2] pacemakerd:1267:0x7fc423bf7660 is now disconnected from corosync<br>
Nov 19 09:49:41 dev1n2 corosync[1130]:  [TOTEM ] Retransmit List: 1de<br>
Nov 19 09:49:41 dev1n2 corosync[1130]:  [TOTEM ] Retransmit List: 1de<br>
Nov 19 09:49:41 dev1n2 corosync[1130]:  [TOTEM ] Retransmit List: 1e1<br>
Nov 19 09:49:41 dev1n2 corosync[1130]:  [TOTEM ] Retransmit List: 1e1<br>
Nov 19 09:49:43 dev1n2 dlm_controld[1142]: 541 cpg_dispatch error 9<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [TOTEM ] Retransmit List: 1e7<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [TOTEM ] Retransmit List: 1e7<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [SERV  ] Unloading all Corosync service engines.<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [QB    ] withdrawing server sockets<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [SERV  ] Service engine unloaded: corosync vote quorum service v1.0<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [QB    ] withdrawing server sockets<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [SERV  ] Service engine unloaded: corosync configuration map access<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [QB    ] withdrawing server sockets<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [SERV  ] Service engine unloaded: corosync configuration service<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [QB    ] withdrawing server sockets<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [SERV  ] Service engine unloaded: corosync cluster closed process group service v1.01<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [QB    ] withdrawing server sockets<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [SERV  ] Service engine unloaded: corosync cluster quorum service v0.1<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [SERV  ] Service engine unloaded: corosync profile loading service<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [WD    ] magically closing the watchdog.<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [SERV  ] Service engine unloaded: corosync watchdog service<br>
Nov 19 09:49:43 dev1n2 corosync[1130]:  [MAIN  ] Corosync Cluster Engine exiting normally<br>
<br>
<br>
Logs from the surviving node:<br>
<br>
Kernel:<br>
Nov 19 09:49:39 dev1n1 kernel: : [80664.615988] block drbd0: conn( Unconnected -> WFConnection )<br>
Nov 19 09:49:42 dev1n1 kernel: : [80667.497187] dlm: clvmd: dlm_recover 11<br>
Nov 19 09:49:42 dev1n1 kernel: : [80667.497241] dlm: clvmd: dlm_clear_toss 1 done<br>
Nov 19 09:49:42 dev1n1 kernel: : [80667.497291] dlm: clvmd: remove member 2<br>
Nov 19 09:49:42 dev1n1 kernel: : [80667.497295] dlm: clvmd: dlm_recover_members 1 nodes<br>
Nov 19 09:49:42 dev1n1 kernel: : [80667.497298] dlm: clvmd: generation 15 slots 1 1:1<br>
Nov 19 09:49:42 dev1n1 kernel: : [80667.497300] dlm: clvmd: dlm_recover_directory<br>
Nov 19 09:49:42 dev1n1 kernel: : [80667.497302] dlm: clvmd: dlm_recover_directory 0 in 0 new<br>
Nov 19 09:49:42 dev1n1 kernel: : [80667.497304] dlm: clvmd: dlm_recover_directory 0 out 0 messages<br>
Nov 19 09:49:42 dev1n1 kernel: : [80667.497307] dlm: clvmd: dlm_recover_masters<br>
Nov 19 09:49:42 dev1n1 kernel: : [80667.497309] dlm: clvmd: dlm_recover_masters 0 of 1<br>
Nov 19 09:49:42 dev1n1 kernel: : [80667.497311] dlm: clvmd: dlm_recover_locks 0 out<br>
Nov 19 09:49:42 dev1n1 kernel: : [80667.497313] dlm: clvmd: dlm_recover_locks 0 in<br>
Nov 19 09:49:42 dev1n1 kernel: : [80667.497314] dlm: clvmd: dlm_recover_rsbs 1 done<br>
Nov 19 09:49:42 dev1n1 kernel: : [80667.497366] dlm: clvmd: dlm_recover 11 generation 15 done: 0 ms<br>
Nov 19 09:49:43 dev1n1 kernel: : [80668.211818] dlm: closing connection to node 2<br>
Nov 19 09:49:46 dev1n1 kernel: : [80670.779015] igb: p1p2 NIC Link is Down<br>
<br>
User space:<br>
Nov 19 09:49:40 dev1n1 pengine[1078]:   notice: stage6: Scheduling Node dev1n2 for shutdown<br>
Nov 19 09:49:40 dev1n1 pengine[1078]:    error: rsc_expand_action: Couldn't expand vpbx_vg_cl_demote_0<br>
Nov 19 09:49:40 dev1n1 pengine[1078]:    error: rsc_expand_action: Couldn't expand vpbx_vg_cl_demote_0<br>
Nov 19 09:49:40 dev1n1 pengine[1078]:   notice: LogActions: Stop    stonith-dev1n1      (dev1n2)<br>
Nov 19 09:49:40 dev1n1 pengine[1078]:   notice: process_pe_message: Calculated Transition 17: /var/lib/pacemaker/pengine/pe-input-1035.bz2<br>
Nov 19 09:49:40 dev1n1 corosync[1004]:  [TOTEM ] Retransmit List: 1d1<br>
Nov 19 09:49:40 dev1n1 crmd[1080]:   notice: run_graph: Transition 17 (Complete=2, Pending=0, Fired=0, Skipped=0, Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-input-1035.bz2): Complete<br>
Nov 19 09:49:40 dev1n1 crmd[1080]:   notice: do_state_transition: State transition S_TRANSITION_ENGINE -> S_IDLE [ input=I_TE_SUCCESS cause=C_FSA_INTERNAL origin=notify_crmd ]<br>
Nov 19 09:49:40 dev1n1 corosync[1004]:  [TOTEM ] Retransmit List: 1d4<br>
Nov 19 09:49:40 dev1n1 corosync[1004]:  [TOTEM ] Retransmit List: 1d6 1d8<br>
Nov 19 09:49:40 dev1n1 corosync[1004]:  [TOTEM ] Retransmit List: 1d6<br>
Nov 19 09:49:40 dev1n1 corosync[1004]:  [TOTEM ] Retransmit List: 1d6<br>
Nov 19 09:49:40 dev1n1 crmd[1080]:   notice: peer_update_callback: do_shutdown of dev1n2 (op 63) is complete<br>
Nov 19 09:49:40 dev1n1 corosync[1004]:  [TOTEM ] Retransmit List: 1df<br>
Nov 19 09:49:40 dev1n1 corosync[1004]:  [TOTEM ] Retransmit List: 1df<br>
Nov 19 09:49:40 dev1n1 corosync[1004]:  [TOTEM ] Retransmit List: 1e3<br>
Nov 19 09:49:40 dev1n1 corosync[1004]:  [TOTEM ] Retransmit List: 1e3<br>
Nov 19 09:49:42 dev1n1 corosync[1004]:  [TOTEM ] Retransmit List: 1e6<br>
Nov 19 09:49:42 dev1n1 corosync[1004]:  [TOTEM ] Retransmit List: 1e9<br>
Nov 19 09:49:43 dev1n1 corosync[1004]:  [QUORUM] Members[1]: 1<br>
Nov 19 09:49:43 dev1n1 crmd[1080]:   notice: corosync_mark_unseen_peer_dead: Node 2/dev1n2 was not seen in the previous transition<br>
Nov 19 09:49:43 dev1n1 crmd[1080]:   notice: crm_update_peer_state: corosync_mark_unseen_peer_dead: Node dev1n2[2] - state is now lost<br>
Nov 19 09:49:43 dev1n1 corosync[1004]:  [TOTEM ] A processor joined or left the membership and a new membership (<a href="http://10.28.45.27:30736" target="_blank">10.28.45.27:30736</a>) was formed.<br>
Nov 19 09:49:43 dev1n1 corosync[1004]:  [MAIN  ] Completed service synchronization, ready to provide service.<br>
Nov 19 09:49:43 dev1n1 dlm_controld[1014]: 80664 fence request 2 pid 27225 nodedown time 1353314983 fence_all dlm_stonith<br>
Nov 19 09:49:43 dev1n1 notifyd[1010]: [notice] 192.168.1.2[2] ip:192.168.1.2 left<br>
Nov 19 09:49:43 dev1n1 stonith-ng[1075]:   notice: stonith_command: Client stonith-api.27225.b5ff8f4d wants to fence (reboot) '2' with device '(any)'<br>
Nov 19 09:49:43 dev1n1 stonith-ng[1075]:   notice: initiate_remote_stonith_op: Initiating remote operation reboot for dev1n2: 71447261-0e53-4b20-b628-d3f026a4ae24 (0)<br>
Nov 19 09:49:44 dev1n1 external/ipmi[27242]: [27254]: debug: ipmitool output: Chassis Power Control: Reset<br>
Nov 19 09:49:45 dev1n1 stonith-ng[1075]:   notice: log_operation: Operation 'reboot' [27234] (call 0 from stonith-api.27225) for host 'dev1n2' with device 'stonith-dev1n2' returned: 0 (OK)<br>
Nov 19 09:49:45 dev1n1 stonith-ng[1075]:   notice: remote_op_done: Operation reboot of dev1n2 by dev1n1 for stonith-api.27225@dev1n1.71447261: OK<br>
Nov 19 09:49:45 dev1n1 crmd[1080]:   notice: tengine_stonith_notify: Peer dev1n2 was terminated (st_notify_fence) by dev1n1 for dev1n1: OK (ref=71447261-0e53-4b20-b628-d3f026a4ae24) by client stonith-api.27225<br>
<br>
Greets,<br>
        Jacek<span class="HOEnZb"><font color="#888888"><br>
<span><font color="#888888"><br>
--<br>
Linux-cluster mailing list<br>
<a href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a></font></span></font></span></blockquote></div><br></div>
<br>--<br>
Linux-cluster mailing list<br>
<a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br></blockquote></div><br><br clear="all"><br>-- <br>esta es mi vida e me la vivo hasta que dios quiera<br>