<br><font size=2 face="sans-serif">Kieran,</font>
<br>
<br><font size=2 face="sans-serif">I'm currently experiencing a similar
problem with an HA NFS server that I just built on RHEL4 with GFS.  </font>
<br>
<br><font size=2 face="sans-serif">I have two different linux clients,
one running RHEL3 U8, the other running RHEL4 U5 (same as the HA NFS servers)</font>
<br>
<br><font size=2 face="sans-serif">If I use the same standard mount options
on both clients (e.g. mount SERVER:/exportfs    /mountpoint -t
nfs -o rw,noatime ) then everything works fine until I perform a failover.
 At that point the RHEL 3 client is OK but the RHEL 4 client can no
longer stat the filesystem (df hangs).  If I move the service back
the hung df command completes.  I don't see an I/O error per say but
any copies to and from that mountpoint are inactive until I relocate the
service back.</font>
<br>
<br><font size=2 face="sans-serif">I tried other versions of Unix and found
that all of them could stat the file system after failover except the RHEL4
U5 version.  The only way round this I've found so far is to use the
udp protocol instead of tcp with version 3 nfs.</font>
<br>
<br><font size=2 face="sans-serif">So my mount commands look something
more like this:</font>
<br>
<br><font size=2 face="sans-serif"># mount SERVER:/exportfs /mountpoint
 -t nfs -o rw,noatime,udp,nfsvers=3</font>
<br>
<br><font size=2 face="sans-serif">I dont know if you can tolerate udp
in your environment but it might be worth playing around with.</font>
<br>
<br><font size=2 face="sans-serif">Regards,</font>
<br>
<br><font size=2 face="sans-serif">Paul</font>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<table width=100%>
<tr valign=top>
<td width=40%><font size=1 face="sans-serif"><b>kieran JOYEUX <kjoyeux@jouy.inra.fr></b>
</font>
<br><font size=1 face="sans-serif">Sent by: linux-cluster-bounces@redhat.com</font>
<p><font size=1 face="sans-serif">08/16/2007 03:15 AM</font>
<table border>
<tr valign=top>
<td bgcolor=white>
<div align=center><font size=1 face="sans-serif">Please respond to<br>
linux clustering <linux-cluster@redhat.com></font></div></table>
<br>
<td width=59%>
<table width=100%>
<tr>
<td>
<div align=right><font size=1 face="sans-serif">To</font></div>
<td valign=top><font size=1 face="sans-serif">Linux-cluster@redhat.com</font>
<tr>
<td>
<div align=right><font size=1 face="sans-serif">cc</font></div>
<td valign=top>
<tr>
<td>
<div align=right><font size=1 face="sans-serif">Subject</font></div>
<td valign=top><font size=1 face="sans-serif">[Linux-cluster] NFS failover
problem</font></table>
<br>
<table>
<tr valign=top>
<td>
<td></table>
<br></table>
<br>
<br>
<br><tt><font size=2>Hi guys,<br>
<br>
I am implementing a two node cluster sharing via NFS, their local <br>
storage to one client.<br>
At the moment, i am simulating a failover during a copy from the NFS <br>
server to the local client disk.<br>
<br>
The first time i got a NFS file handle error. I tried to use a <br>
Filesystem ID (fsid) on the mount parameter of the client but now here
<br>
is my issue:<br>
<br>
[root@**** ****]# time cp 1Go.t* /usr<br>
cp: reading `1Go.tyt': Input/output error<br>
<br>
<br>
My cluster.conf :<br>
<?xml version="1.0"?><br>
<cluster alias="mig_nfs" config_version="128" name="mig_nfs"><br>
      <fence_daemon post_fail_delay="0" post_join_delay="3"/><br>
      <clusternodes><br>
              <clusternode name="ha1"
votes="1"><br>
                    
 <fence><br>
                    
         <method name="1"><br>
                    
                 <device
name="barriere" <br>
nodename="ha1"/><br>
                    
         </method><br>
                    
 </fence><br>
              </clusternode><br>
              <clusternode name="ha2"
votes="1"><br>
                    
 <fence><br>
                    
         <method name="1"><br>
                    
                 <device
name="barriere" <br>
nodename="ha2"/><br>
                    
         </method><br>
                    
 </fence><br>
              </clusternode><br>
      </clusternodes><br>
      <cman expected_votes="1" two_node="1"/><br>
      <fencedevices><br>
              <fencedevice agent="fence_manual"
name="barriere"/><br>
      </fencedevices><br>
      <rm><br>
              <failoverdomains><br>
                    
 <failoverdomain name="mig_fod" ordered="1"
<br>
restricted="0"><br>
                    
         <failoverdomainnode name="ha1"
priority="2"/><br>
                    
         <failoverdomainnode name="ha2"
priority="1"/><br>
                    
 </failoverdomain><br>
              </failoverdomains><br>
              <resources><br>
                    
 <ip address="138.102.22.33" monitor_link="1"/><br>
                    
 <nfsexport name="/usr/local/genome"/><br>
                    
 <nfsclient name="mig" options="ro,fsid=20"
<br>
path="/usr/local/genome" target="138.102.22.0/255.255.192.0"/><br>
                    
 <nfsclient name="mig213" options="fsid=213,ro"
<br>
path="/usr/local/genome" target="138.102.22.213"/><br>
                    
 <nfsclient name="mig217" options="ro,fsid=217"
<br>
path="/usr/local/genome" target="138.102.22.217"/><br>
              </resources><br>
              <service autostart="1"
domain="mig_fod" name="nfs"><br>
                    
 <ip ref="138.102.22.33"/><br>
                    
 <nfsexport ref="/usr/local/genome"/><br>
                    
 <nfsclient ref="mig"/><br>
              </service><br>
      </rm><br>
</cluster><br>
<br>
<br>
If you have any ideas or remarks, i would love to hear them. Thanks a lot.<br>
<br>
Kieran<br>
<br>
--<br>
Linux-cluster mailing list<br>
Linux-cluster@redhat.com<br>
https://www.redhat.com/mailman/listinfo/linux-cluster<br>
</font></tt>
<br>