Hi All,<br><br>I've successfully installed and configured GFS on my three nodes, but when I try to mount the filesystem the prompt hangs until I kill the mount command.  All servers are running RHEL 3 AS/ES U6 with the 2.4.21-37.0.1.ELsmp
 kernel and are connected to a MSA1500 SAN via FC.  I've installed the following GFS rpms:<br><br>[root@oradw root]# rpm -qa | grep -i gfs<br>GFS-modules-6.0.2.27-0.1<br>GFS-modules-smp-6.0.2.27-0.1<br>GFS-6.0.2.27-0.1<br>
<br><br>Here is my pool configuration files and the output from pool_tool -s<br><br>[root@backup gfs]# cat cluster_cca.cfg<br>poolname cluster_cca<br>subpools 1<br>subpool 0 0 1<br>pooldevice 0 0 /dev/sda1<br>[root@backup
 gfs]# cat pool0.cfg<br>poolname pool_gfs1<br>subpools 1<br>subpool 0 0 1<br>pooldevice 0 0 /dev/sda2<br>[root@backup gfs]# cat pool1.cfg<br>poolname pool_gfs2<br>subpools 1<br>subpool 0 0 1<br>pooldevice 0 0 /dev/sdb<br>
[root@backup gfs]# pool_tool -s<br>  Device                                            Pool Label<br>  ======                                            ==========<br>  /dev/pool/cluster_cca                       <- CCA device ->
<br>  /dev/pool/pool_gfs1                     <- GFS filesystem -><br>  /dev/pool/pool_gfs2                     <- GFS filesystem -><br>  /dev/cciss/c0d0                  <- partition information -><br>  /dev/cciss/c0d0p1                    <- EXT2/3 filesystem ->
<br>  /dev/cciss/c0d0p2                          <- swap device -><br>  /dev/cciss/c0d0p3                       <- lvm1 subdevice -><br>  /dev/sda                         <- partition information -><br>  /dev/sda1                                        cluster_cca
<br>  /dev/sda2                                          pool_gfs1<br>  /dev/sdb                                           pool_gfs2<br><br><br>Here is the command I used to create the filesystem:<br><br>gfs_mkfs -p lock_gulm -t cluster_cca:pool_gfs2 -j 10 /dev/pool/pool_gfs2
<br><br><br>Mount command that hangs:<br><br>mount -t gfs /dev/pool/pool_gfs2 /gfs2<br><br>Here is the output I see in my messages log file.  I see the last 5 lines repeated for each time I tried to mount the filesystem.<br>
<br>Mar 17 15:47:05 backup ccsd[2645]: Starting ccsd <a href="http://6.0.2.27">6.0.2.27</a>:<br>Mar 17 15:47:05 backup ccsd[2645]:  Built: Jan 30 2006 15:28:33<br>Mar 17 15:47:05 backup ccsd[2645]:  Copyright (C) Red Hat, Inc.  2004  All rights reserved.
<br>Mar 17 15:48:10 backup lock_gulmd[2652]: Starting lock_gulmd <a href="http://6.0.2.27">6.0.2.27</a>. (built Jan 30 2006 15:28:54) Copyright (C) 2004 Red Hat, Inc.  All rights reserved.<br>Mar 17 15:48:10 backup lock_gulmd[2652]: You are running in Fail-over mode.
<br>Mar 17 15:48:10 backup lock_gulmd[2652]: I am (backup) with ip (<a href="http://127.0.0.1">127.0.0.1</a>)<br>Mar 17 15:48:10 backup lock_gulmd[2652]: Forked core [2653].<br>Mar 17 15:48:11 backup lock_gulmd[2652]: Forked locktable [2654].
<br>Mar 17 15:48:12 backup lock_gulmd[2652]: Forked ltpx [2655].<br>Mar 17 15:48:12 backup lock_gulmd_core[2653]: I see no Masters, So I am Arbitrating until enough Slaves talk to me.<br>Mar 17 15:48:12 backup lock_gulmd_core[2653]: Could not send quorum update to slave backup
<br>Mar 17 15:48:12 backup lock_gulmd_core[2653]: New generation of server state. (1142628492484630)<br>Mar 17 15:48:12 backup lock_gulmd_LTPX[2655]: New Master at backup:<a href="http://127.0.0.1">127.0.0.1</a><br>Mar 17 15:52:14 backup kernel: Lock_Harness 
<a href="http://6.0.2.27">6.0.2.27</a> (built Jan 30 2006 15:32:58) installed<br>Mar 17 15:52:14 backup kernel: GFS <a href="http://6.0.2.27">6.0.2.27</a> (built Jan 30 2006 15:32:20) installed<br>Mar 17 15:52:15 backup kernel: Gulm 
<a href="http://6.0.2.27">6.0.2.27</a> (built Jan 30 2006 15:32:54) installed<br>Mar 17 15:54:51 backup kernel: lock_gulm: ERROR cm_login failed. -512<br>Mar 17 15:54:51 backup kernel: lock_gulm: ERROR Got a -512 trying to start the threads.
<br>Mar 17 15:54:51 backup lock_gulmd_core[2653]: Error on xdr (GFS Kernel Interface:<a href="http://127.0.0.1">127.0.0.1</a> idx:3 fd:8): (-104:104:Connection reset by peer)<br>Mar 17 15:54:51 backup kernel: lock_gulm: fsid=cluster_cca:gfs1: Exiting gulm_mount with errors -512
<br>Mar 17 15:54:51 backup kernel: GFS: can't mount proto = lock_gulm, table = cluster_cca:gfs1, hostdata =<br><br><br>Result from gulm_tool:<br><br>[root@backup gfs]# gulm_tool nodelist backup<br> Name: backup<br>  ip    = 
<a href="http://127.0.0.1">127.0.0.1</a><br>  state = Logged in<br>  mode = Arbitrating<br>  missed beats = 0<br>  last beat = 1142632189718986<br>  delay avg = 10019686<br>  max delay = 10019735<br><br><br><br>I'm a newbie to clusters and I have no clue where to look next.  If any other information is needed let me know.
<br><br>Thanks,<br clear="all"><br>-- <br>Magnus Andersen<br>Systems Administrator / Oracle DBA<br>Walker & Associates, Inc.