<html><head><style type="text/css"><!-- DIV {margin:0px;} --></style></head><body><div style="font-family:times new roman, new york, times, serif;font-size:12pt"><DIV> </DIV>
<DIV style="FONT-SIZE: 12pt; FONT-FAMILY: times new roman, new york, times, serif">
<DIV style="FONT-SIZE: 12pt; FONT-FAMILY: times new roman, new york, times, serif"><BR>
<META http-equiv=x-dns-prefetch-control content=off>
<DIV style="FONT-SIZE: 12pt; FONT-FAMILY: times new roman, new york, times, serif">Hello,<BR>i can run following command successfully from another node but still getting same error message :<BR><BR>fence_ilo -a "Ilo IP"  -l "Ilo user" -p "Ilo passwd" -o reboot<BR><BR>Sep  9 14:37:00 node2 openais[2904]: [CLM  ] Members Joined: <BR>Sep  9 14:37:00 node2 openais[2904]: [SYNC ] This node is within the primary component and will provide service. <BR>Sep  9 14:37:00 node2 openais[2904]: [TOTEM] entering OPERATIONAL state. <BR>Sep  9 14:37:00 node2 openais[2904]: [CLM  ] got nodejoin message 192.168.0.28 <BR>Sep  9 14:37:00 node2 openais[2904]: [CPG  ] got joinlist message from node 1 <BR>Sep  9 14:37:00 node2 fenced[2923]: <A href="http://node1.drctmb.com/" target=_blank>node1.drctmb.com</A> not a cluster member after 0 sec post_fail_delay<BR>Sep  9 14:37:00 node2 fenced[2923]: fencing node
 "node1.drctmb.com"<BR>Sep  9 14:37:10 node2 fenced[2923]: agent "fence_ilo" reports: Unable to connect/login to fencing device <BR>Sep  9 14:37:10 node2 fenced[2923]: fence "node1.drctmb.com" failed<BR>Sep  9 14:37:15 node2 fenced[2923]: fencing node "node1.drctmb.com"<BR>Sep  9 14:37:26 node2 fenced[2923]: agent "fence_ilo" reports: Unable to connect/login to fencing device <BR><BR>node1 rebooted and get connect to the cluster  but now my webby service not working see below log :<BR><BR>Broadcast message from root (Thu Sep  9 14:32:41 2010):<BR>The system is going down for system halt NOW!<BR>Sep  9 14:19:22 node1 last message repeated 17 times<BR>Sep  9 14:32:41 node1 shutdown[25506]: shutting down for system halt<BR>Sep  9 14:32:41 node1 pcscd: winscard.c:304:SCardConnect() Reader E-Gate 0 0 Not Found<BR>Sep  9 14:32:43 node1 modclusterd: shutdown succeeded<BR>Sep  9 14:32:43 node1 rgmanager:
 [25593]: <notice> Shutting down Cluster Service Manager... <BR>Sep  9 14:32:43 node1 clurgmgrd[3457]: <notice> Shutting down <BR>Sep  9 14:32:43 node1 clurgmgrd[3457]: <notice> Shutting down <BR>Sep  9 14:32:43 node1 clurgmgrd[3457]: <notice> Stopping service service:webby <BR>Sep  9 14:32:44 node1 avahi-daemon[3378]: Withdrawing address record for 192.168.0.30 on eth0.<BR>Read from remote host node1: Connection reset by peer<BR>.<BR>.<BR>.<BR>Sep  9 14:35:42 node1 smartd[3585]: Device: /dev/hda, packet devices [this device CD/DVD] not SMART capable <BR>Sep  9 14:35:42 node1 smartd[3585]: Device: /dev/sda, opened <BR>Sep  9 14:35:42 node1 smartd[3585]: Device: /dev/sda, IE (SMART) not enabled, skip device Try 'smartctl -s on /dev/sda' to turn on SMART features <BR>Sep  9 14:35:42 node1 smartd[3585]: Monitoring 0 ATA and 0 SCSI devices <BR>Sep  9 14:35:42 node1 smartd[3604]: smartd has
 fork()ed into background mode. New PID=3604. <BR>Sep  9 14:35:42 node1 avahi-daemon[3412]: Service "SFTP File Transfer on node1" (/services/sftp-ssh.service) successfully established.<BR>Sep  9 14:35:45 node1 pcscd: winscard.c:304:SCardConnect() Reader E-Gate 0 0 Not Found<BR>Sep  9 14:35:45 node1 last message repeated 3 times<BR>Sep  9 14:35:45 node1 kernel: mtrr: type mismatch for d8000000,2000000 old: uncachable new: write-combining<BR>Sep  9 14:35:46 node1 clurgmgrd: [3491]: <err> Checking Existence Of File /var/run/cluster/apache/apache:httpd.pid [apache:httpd] > Failed - File Doesn't Exist <BR><BR>
<DIV style="FONT-SIZE: 12pt; FONT-FAMILY: times new roman, new york, times, serif"><BR>It seems that there problem in fencing device configuration.<BR>Please find here my cluster.conf :<BR><BR><BR><?xml version="1.0"?><BR><cluster alias="girish" config_version="21" name="girish"><BR>        <fence_daemon clean_start="0" post_fail_delay="0" post_join_delay="3"/><BR>        <clusternodes><BR>                <clusternode name="<A href="http://node2.drctmb.com/" target=_blank>node2.drctmb.com</A>" nodeid="1" votes="1"><BR>                       
 <fence><BR>                                <method name="1"><BR>                                        <device name="NODE2"/><BR>                                </method><BR>                        </fence><BR>               
 </clusternode><BR>                <clusternode name="node1.drctmb.com" nodeid="2" votes="1"><BR>                        <fence><BR>                                <method name="1"><BR>                                        <device
 name="NODE1"/><BR>                                </method><BR>                        </fence><BR>                </clusternode><BR>        </clusternodes><BR>        <cman expected_votes="1" two_node="1"/><BR>        <fencedevices><BR>                <fencedevice agent="fence_ilo" hostname="node1.drctmb.com" login="root" name="NODE1"
 passwd="redhat123"/><BR>                <fencedevice agent="fence_ilo" hostname="node2.drctmb.com" login="root" name="NODE2" passwd="redhat123"/><BR>        </fencedevices><BR>        <rm><BR>                <failoverdomains><BR>                        <failoverdomain name="prefer_node1" nofailback="0" ordered="1" restricted="1"><BR>                                <failoverdomainnode name="node2.drctmb.com"
 priority="2"/><BR>                                <failoverdomainnode name="node1.drctmb.com" priority="1"/><BR>                        </failoverdomain><BR>                </failoverdomains><BR>                <resources><BR>                        <fs device="/dev/sda1" force_fsck="0" force_unmount="0" fsid="8669" fstype="ext3" mountpoint="/var/www/html" name="docroot"
 self_fence="0"/><BR>                        <ip address="192.168.0.30" monitor_link="1"/><BR>                        <apache config_file="conf/httpd.conf" name="httpd" server_root="/etc/httpd" shutdown_wait="5"/><BR>                </resources><BR>                <service autostart="1" domain="prefer_node1" exclusive="0" name="webby" recovery="relocate"><BR>                        <ip
 ref="192.168.0.30"/><BR>                        <fs ref="docroot"/><BR>                        <apache ref="httpd"/><BR>                </service><BR>        </rm><BR>        <fence_xvmd/><BR></cluster><BR>~  <BR><BR>This is first time am working on Clustering so please help me.<BR>Appreciate your help.<BR><BR>Thank you.<BR><BR>
<DIV style="FONT-SIZE: 13px; FONT-FAMILY: arial, helvetica, sans-serif"><FONT face=Tahoma size=2>
<HR SIZE=1>
<B><SPAN style="FONT-WEIGHT: bold">From:</SPAN></B> Brem Belguebli <brem.belguebli@gmail.com><BR><B><SPAN style="FONT-WEIGHT: bold">To:</SPAN></B> linux clustering <linux-cluster@redhat.com><BR><B><SPAN style="FONT-WEIGHT: bold">Sent:</SPAN></B> Thu, September 9, 2010 11:30:28 AM<BR><B><SPAN style="FONT-WEIGHT: bold">Subject:</SPAN></B> Re: [Linux-cluster] need help - Fencing problem<BR></FONT><BR>try run this from another node of the cluster<BR><BR>fence_ilo -a "Ilo IP"  -l "Ilo user" -p "Ilo passwd" -o reboot<BR><BR><BR>Additionnally, by connecting thru http to the Ilo, you should be able to<BR>see Ilo logs (in the general tab) and see if it is due to a lack of<BR>licensing<BR><BR><BR>On Wed, 2010-09-08 at 22:29 -0700, Girish Prajapati wrote:<BR>> Hello...<BR>>  <BR>> I have already configure BIOS for iLO.. but am not sure why i don need<BR>> to shared ?? <BR>> please anybody can help me out for this problem.
 <BR>> Do i need any extra setup for fencing device ?<BR>> thanks<BR>> <BR>> <BR>> <BR>> ______________________________________________________________________<BR>> From: ESGLinux <<A href="mailto:esggrupos@gmail.com" target=_blank rel=nofollow ymailto="mailto:esggrupos@gmail.com">esggrupos@gmail.com</A>><BR>> To: linux clustering <<A href="mailto:linux-cluster@redhat.com" target=_blank rel=nofollow ymailto="mailto:linux-cluster@redhat.com">linux-cluster@redhat.com</A>><BR>> Sent: Wed, September 8, 2010 2:57:25 PM<BR>> Subject: Re: [Linux-cluster] need help - Fencing problem<BR>> <BR>> Hello,  <BR>> <BR>> <BR>> Have you configured the iLO devices entering in the BIOS?<BR>> <BR>> <BR>> I remenber I have to set up the user/pass in the iLO and marked the<BR>> iLo as not shared<BR>> <BR>> <BR>> <BR>> <BR>> HTH, <BR>> <BR>> <BR>> ESG<BR>> <BR>> 2010/9/8
 Girish Prajapati <<A href="mailto:girishpati@yahoo.com" target=_blank rel=nofollow ymailto="mailto:girishpati@yahoo.com">girishpati@yahoo.com</A>><BR>>        Hello Everybody,<BR>>        i am having problem of fencing a cluster node  let me explain<BR>>        indetail :<BR>>        I have installed RHEL 5.4 on  HP Prolaint DL280 G5 servers and<BR>>        iLO 2as fencing device. Am managing cluster through Luci -<BR>>        (Conga). itseems everything is working fine. I can reboot<BR>>        cluster nodes through Luci and service get transfer to another<BR>>        node. After rebooting node connect to cluster automatically<BR>>        without any error.<BR>>        Problem is i can not do Fence this node
 through Luci, when i<BR>>        try to fence any node i get following error :<BR>>        <BR>>        Sep  8 14:51:16 node2 fence_node[9106]: agent "fence_ilo"<BR>>        reports: Unable to connect/login to fencing device<BR>>        Sep  8 14:51:16 node2 fence_node[9106]: Fence of<BR>>        "<A href="http://node1.drctmb.com/" target=_blank rel=nofollow>node1.drctmb.com</A>" was unsuccessful<BR>>        <BR>>        my iLO license is : iLO 2 Advanced Evaluation<BR>>        Do i need to have  license of iLO or there is problem in<BR>>        configuration of cluster ?<BR>>        how i can check cluster log in details.<BR>>          <BR>>   
     Appreciate your help.<BR>>        Thank you in advance.<BR>>          <BR>>        Regards,<BR>>        Girishkumar R Prajapati<BR>>        <BR>>        <BR>>        <BR>>        --<BR>>        Linux-cluster mailing list<BR>>        <A href="mailto:Linux-cluster@redhat.com" target=_blank rel=nofollow ymailto="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</A><BR>>        <A href="https://www.redhat.com/mailman/listinfo/linux-cluster" target=_blank rel=nofollow>https://www.redhat.com/mailman/listinfo/linux-cluster</A><BR>> <BR>> <BR>> <BR>> --<BR>> Linux-cluster mailing list<BR>> <A href="mailto:Linux-cluster@redhat.com" target=_blank rel=nofollow
 ymailto="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</A><BR>> <A href="https://www.redhat.com/mailman/listinfo/linux-cluster" target=_blank rel=nofollow>https://www.redhat.com/mailman/listinfo/linux-cluster</A><BR><BR><BR>--<BR>Linux-cluster mailing list<BR><A href="mailto:Linux-cluster@redhat.com" target=_blank rel=nofollow ymailto="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</A><BR><A href="https://www.redhat.com/mailman/listinfo/linux-cluster" target=_blank rel=nofollow>https://www.redhat.com/mailman/listinfo/linux-cluster</A><BR></DIV></DIV></DIV><BR>
<META http-equiv=x-dns-prefetch-control content=on></DIV></DIV></div><br>

      </body></html>