<p>Hi Zaman, </p>
<p>There are some configurations that need to be made to the switch to allow both nics to come up with the same mac. I am by no means a network expert, so I cannot think of the name of the protocol off the top of my head. I am willing to wager that the lack of that configuration is the cause of your packet loss. </p>

<div class="gmail_quote">On Nov 9, 2012 8:22 PM, "Zama Ques" <<a href="mailto:queszama@yahoo.in">queszama@yahoo.in</a>> wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
<br>
<br>
<br>
----- Original Message -----<br>
From: Digimer <<a href="mailto:lists@alteeve.ca">lists@alteeve.ca</a>><br>
To: Zama Ques <<a href="mailto:queszama@yahoo.in">queszama@yahoo.in</a>>; linux clustering <<a href="mailto:linux-cluster@redhat.com">linux-cluster@redhat.com</a>><br>
Cc:<br>
Sent: Saturday, 10 November 2012 8:24 AM<br>
Subject: Re: [Linux-cluster] Packet loss after configuring Ethernet bonding<br>
<br>
On 11/09/2012 09:26 PM, Zama Ques wrote:<br>
> Hi All,<br>
><br>
> Need help on resolving a issue related to implementing High Availability at network level . I understand that this is not the right forum to ask this question , but since it is related to HA and Linux , I am asking here and I feel somebody here  will have answer to the issues I am facing .<br>

><br>
> I am trying to implement Ethernet Bonding , Both the interface in my server are connected to two different network switches .<br>
><br>
> My configuration is as follows:<br>
><br>
> ========<br>
> # cat /proc/net/bonding/bond0<br>
><br>
> Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)<br>
><br>
> Bonding Mode: adaptive load balancing Primary Slave: None Currently<br>
> Active Slave: eth0 MII Status: up MII Polling Interval (ms): 0 Up Delay<br>
> (ms): 0 Down Delay (ms): 0<br>
><br>
> Slave Interface: eth0 MII Status: up Speed: 1000 Mbps Duplex: full Link<br>
> Failure Count: 0 Permanent HW addr: e4:e1:5b:d0:11:10 Slave queue ID: 0<br>
><br>
> Slave Interface: eth1 MII Status: up Speed: 1000 Mbps Duplex: full Link<br>
> Failure Count: 0 Permanent HW addr: e4:e1:5b:d0:11:14 Slave queue ID: 0<br>
> ------------<br>
> # cat /sys/class/net/bond0/bonding/mode<br>
><br>
>   balance-alb 6<br>
><br>
><br>
> # cat /sys/class/net/bond0/bonding/miimon<br>
>    0<br>
><br>
> ============<br>
><br>
><br>
> The issue for me is that I am seeing packet loss after configuring bonding .  Tried connecting both the interface to the same switch , but still seeing the packet loss . Also , tried changing miimon value to 100 , but still seeing the packet loss.<br>

><br>
> What I am missing in the configuration ? Any help will be highly appreciated in resolving the problem .<br>
><br>
><br>
><br>
> Thanks<br>
> Zaman<br>
<br>
 > You didn't share any details on your configuration, but I will assume<br>
> you are using corosync.<br>
<br>
> The only supported bonding mode is Active/Passive (mode=1). I've<br>
> personally tried all modes, out of curiosity, and all had problems. The<br>
> short of it is that if you need more that 1 gbit of performance, buy<br>
> faster cards.<br>
<br>
> If you are interested in what I use, it's documented here:<br>
<br>
>  <a href="https://alteeve.ca/w/2-Node_Red_Hat_KVM_Cluster_Tutorial#Network" target="_blank">https://alteeve.ca/w/2-Node_Red_Hat_KVM_Cluster_Tutorial#Network</a><br>
<br>
>  I've used this setup in several production clusters and have tested<br>
>  failure are recovery extensively. It's proven very stable. :)<br>
<br>
 <br>
Thanks Digimer for the quick response and pointing me to the link . I am yet to reach cluster configuration , initially trying to  understand ethernet bonding before going into cluster configuration. So , option for me is only to use Active/Passive bonding mode in case of clustered environment.<br>

Few more clarifications needed , Can we use other bonding modes in non clustered environment .  I am seeing packet loss in other modes . Also , the support of  using only mode=1 in cluster environment is it a restriction of RHEL Cluster suite or it is by design .<br>

<br>
Will be great if you clarify these queries .<br>
<br>
Thanks in Advance<br>
Zaman<br>
<br>
--<br>
Linux-cluster mailing list<br>
<a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
</blockquote></div>