<div>Hallo,</div>
<div>I wish add your software to my download based website.Please send me your product download link,screenshuts,and description for my download based website.</div>
<div>Thanking you...<br><br> </div>
<div><span class="gmail_quote">On 8/22/06, <b class="gmail_sendername"><a href="mailto:rhn-users-request@redhat.com">rhn-users-request@redhat.com</a></b> <<a href="mailto:rhn-users-request@redhat.com">rhn-users-request@redhat.com
</a>> wrote:</span>
<blockquote class="gmail_quote" style="PADDING-LEFT: 1ex; MARGIN: 0px 0px 0px 0.8ex; BORDER-LEFT: #ccc 1px solid">Send rhn-users mailing list submissions to<br>       <a href="mailto:rhn-users@redhat.com">rhn-users@redhat.com
</a><br><br>To subscribe or unsubscribe via the World Wide Web, visit<br>       <a href="https://www.redhat.com/mailman/listinfo/rhn-users">https://www.redhat.com/mailman/listinfo/rhn-users</a><br>or, via email, send a message with subject or body 'help' to
<br>       <a href="mailto:rhn-users-request@redhat.com">rhn-users-request@redhat.com</a><br><br>You can reach the person managing the list at<br>       <a href="mailto:rhn-users-owner@redhat.com">rhn-users-owner@redhat.com
</a><br><br>When replying, please edit your Subject line so it is more specific<br>than "Re: Contents of rhn-users digest..."<br><br><br>Today's Topics:<br><br>  1. Re: The purpose of this mailing list (jef e)<br>
  2. Re: Gigabit transfer speeds (Dan Hunter)<br>  3. Re: Gigabit transfer speeds (Tim Schoenfelder)<br><br><br>----------------------------------------------------------------------<br><br>Message: 1<br>Date: Mon, 21 Aug 2006 16:05:44 -0400
<br>From: jef e <<a href="mailto:jef_umd@umd.umich.edu">jef_umd@umd.umich.edu</a>><br>Subject: Re: [rhn-users] The purpose of this mailing list<br>To: Red Hat Network Users List <<a href="mailto:rhn-users@redhat.com">
rhn-users@redhat.com</a>><br>Message-ID: <<a href="mailto:44EA1218.5070209@umd.umich.edu">44EA1218.5070209@umd.umich.edu</a>><br>Content-Type: text/plain; charset=ISO-8859-1<br><br>Máirín Duffy wrote:<br><br>> How does this sound?:
<br>><br>> "Discussions about using Red Hat Network to apply updates to Red Hat<br>> Enterprise Linux, including discussion about particular Red Hat<br>> Enterprise Linux updates."<br>><br>> Is this too broad? How do / have you found this list most useful? Let's
<br>> focus the purpose towards that.<br><br>I think it's a good start, but despite all good intentions to make the<br>description as accurate as possible, I think that you might need to<br>actually include what the list *isn't* for.
<br><br>Perhaps also include pointers to the other lists,  so that those folks<br>that do need help can get better results from the proper community of<br>users.<br><br><br>jef<br><br><br><br>------------------------------
<br><br>Message: 2<br>Date: Mon, 21 Aug 2006 20:16:36 -0500<br>From: "Dan Hunter" <<a href="mailto:dmhunter@charter.net">dmhunter@charter.net</a>><br>Subject: Re: [rhn-users] Gigabit transfer speeds<br>To: "Red Hat Network Users List" <
<a href="mailto:rhn-users@redhat.com">rhn-users@redhat.com</a>><br>Message-ID: <002001c6c588$9d0d5a80$64011811@mutant><br>Content-Type: text/plain; charset="iso-8859-1"<br><br>I have already set the packet size as large as the windows driver allow - MTU = 7 Kb
<br><br>But coping from a very high speed disk, or RAM drive is certainly a good question.<br>Is the limitation the ethernet, PCI bus, hard driver controller, or the hard drive itself????<br><br>Hmmm, me thinks an experiment or two is in the wind!
<br>----- Original Message -----<br>From: Tim Schoenfelder<br>To: Red Hat Network Users List<br>Sent: Monday, August 21, 2006 1:37 PM<br>Subject: Re: [rhn-users] Gigabit transfer speeds<br><br><br>Increase your packet size...
<br><br>One of our networking class projects a couple years ago was to benchmark gigibit ethernet transfer speeds.<br><br>I benchmarked 700mb/s+ between two Linux PCs which was reasonable to our instructor.<br><br>He emphasized that the brand/chipset of cards made a big difference ( it wasn't the most expensive that performed best ... ) as well as the drivers.
<br><br>Some of his published tests as described below show that you can achieve at least 700mb/s even with 32bit Netgear GA622T cards as illustrated in a ps link from his website:<br><br><a href="http://www.cs.uni.edu/~gray/">
http://www.cs.uni.edu/~gray/</a><br><br>Benchmark project links:<br><a href="http://www.cs.uni.edu/~gray/gig-over-copper/">http://www.cs.uni.edu/~gray/gig-over-copper/</a><br><a href="http://www.cs.uni.edu/~gray/gig-over-copper/gig-over-copper.html">
http://www.cs.uni.edu/~gray/gig-over-copper/gig-over-copper.html</a><br><br>PS file showing performance benchmarks ( note 700mb/s+ requires packet size of 100k+ bytes ):<br><br><a href="http://www.cs.uni.edu/~gray/gig-over-copper/hsln-lcn.ps">
http://www.cs.uni.edu/~gray/gig-over-copper/hsln-lcn.ps</a><br><br>Tim<br><br><br>On 8/21/06, Corne Beerse <<a href="mailto:cbeerse@gmail.com">cbeerse@gmail.com</a>> wrote:<br>   Dan Hunter wrote:<br><br>   > I regularly move large files from a windows XP machine to a Fedora
<br>   > Core 5 machine.<br>   > To avoid bothering other network users, I purchased two Linksys EG1032<br>   > gigabit ether net cards.<br>   > The cards have been installed.  a direct PC to PC gigabit cross over
<br>   > cable connects them.<br>   > A separate set of IP address have been set up.<br>   > I can verify that data is being transfered over the gigabit cable with<br>   > windows task manager.<br>   ><br>   > Transfers over the 10/100 link show up at 82 or 83 percent - about 80
<br>   > Mbps.<br>   > Transfers over the gigabit link show up at 20 to 26 percent - about<br>   > 230 Mbps.<br>   ><br>   > What do I have set up wrong?<br>   ><br>   ><br>   Your expectations are to high. If you have about 20% utilisation with a
<br>   Gbit nic, I'd say you are doing verry nice.<br><br>   With the move to gigabit networking, the nic is no longer the<br>   bottleneck. If you move data from disk on one machine or to disk on an<br>   other, the disk-controllers, disk interfaces or even the actual disks
<br>   are most likely the bottlenecks. Then, the disk does not need to be the<br>   bottleneck. Think about the speed of internal busses and for which they<br>   are used while you are dumping data...<br><br><br>   CBee<br>
<br>   _______________________________________________<br>   rhn-users mailing list<br>   <a href="mailto:rhn-users@redhat.com">rhn-users@redhat.com</a><br>   <a href="https://www.redhat.com/mailman/listinfo/rhn-users">https://www.redhat.com/mailman/listinfo/rhn-users
</a><br><br><br><br><br>--<br>Tim Schoenfelder<br><a href="http://timschoenfelder.com">http://timschoenfelder.com</a><br><br><br>------------------------------------------------------------------------------<br><br><br>_______________________________________________
<br>rhn-users mailing list<br><a href="mailto:rhn-users@redhat.com">rhn-users@redhat.com</a><br><a href="https://www.redhat.com/mailman/listinfo/rhn-users">https://www.redhat.com/mailman/listinfo/rhn-users</a><br>-------------- next part --------------
<br>An HTML attachment was scrubbed...<br>URL: <a href="https://www.redhat.com/archives/rhn-users/attachments/20060821/b0af1141/attachment.html">https://www.redhat.com/archives/rhn-users/attachments/20060821/b0af1141/attachment.html
</a><br><br>------------------------------<br><br>Message: 3<br>Date: Tue, 22 Aug 2006 10:10:02 -0500<br>From: "Tim Schoenfelder" <<a href="mailto:tim@timschoenfelder.com">tim@timschoenfelder.com</a>><br>Subject: Re: [rhn-users] Gigabit transfer speeds
<br>To: "Red Hat Network Users List" <<a href="mailto:rhn-users@redhat.com">rhn-users@redhat.com</a>><br>Message-ID:<br>       <<a href="mailto:52d4eaab0608220810p2a44de59o8af10edfcf8cd068@mail.gmail.com">
52d4eaab0608220810p2a44de59o8af10edfcf8cd068@mail.gmail.com</a>><br>Content-Type: text/plain; charset="iso-8859-1"<br><br>The testing also involved linux/windows communications...<br><br>>From the webpage:
<br>"Note: All cards were tested at 1500, 3000, 4000, and 6000 values for the<br>TCP MTU size. The drivers for the cards were not modified. Cards based upon<br>the dp83820 chipset were limited to 6000MTU due to driver defaults. All
<br>other cards were tested through 9000MTU."<br><br>NOTE: <a href="http://www.cs.uni.edu/~gray/gig-over-copper/gig-over-copper.htmldescribes">http://www.cs.uni.edu/~gray/gig-over-copper/gig-over-copper.htmldescribes
</a><br>that the benchmarks were gathered using Netpipe<br>2.4:<br><a href="http://www.scl.ameslab.gov/netpipe">http://www.scl.ameslab.gov/netpipe</a><br><br>>From the above netpipe webpage ... "Gigabit Ethernet delivers around 900
<br>Mbps with latencies of 25-62 microseconds from 64-bit 66 MHz PCI buses."<br><br><br>.. I haven't substantiated this but you may wish to consider the 100K+<br>packet size as the TcpWindowSize as described in<br><br>
<a href="http://support.microsoft.com/kb/314053/en-us">http://support.microsoft.com/kb/314053/en-us</a><br><br>" Description: This parameter determines the maximum TCP receive window size<br>of the computer. The receive window specifies the number of bytes a sender
<br>can transmit without receiving an acknowledgment. Generally, larger receive<br>windows improve performance over high (delay * bandwidth) networks. For<br>highest efficiency, the receive window must be an even multiple of the TCP
<br>Maximum Segment Size (MSS)."<br><br><br>The complete benchmark write-up is located at:<br><br><a href="http://www.cns.uni.edu/~gray/gig-over-copper/hsln-lcn.ps">http://www.cns.uni.edu/~gray/gig-over-copper/hsln-lcn.ps
</a><<a href="http://www.cns.uni.edu/%7Egray/gig-over-copper/hsln-lcn.ps">http://www.cns.uni.edu/%7Egray/gig-over-copper/hsln-lcn.ps</a>><br><br><br>These were the OS environments:( Note: Even the win2k tests were over
<br>600mbs....)<br><br>"Each system was configured to boot<br>into Debian 3.0 GNU/Linux and Microsoft Windows 2000<br>Professional. Versions 2.4.7, 2.4.19-pre9-ac2, and 2.5.7 of<br>the Linux kernel were used for testing on the GNU/Linux
<br>operating system. Service pack 2 was applied to the Win-<br>dows 2000 installation."<br><br><br>Tim<br><br>On 8/21/06, Dan Hunter <<a href="mailto:dmhunter@charter.net">dmhunter@charter.net</a>> wrote:<br>>
<br>>  I have already set the packet size as large as the windows driver allow -<br>> MTU = 7 Kb<br>><br>> But coping from a very high speed disk, or RAM drive is certainly a good<br>> question.<br>> Is the limitation the ethernet, PCI bus, hard driver controller, or the
<br>> hard drive itself????<br>><br>> Hmmm, me thinks an experiment or two is in the wind!<br>><br>> ----- Original Message -----<br>> *From:* Tim Schoenfelder <<a href="mailto:tim@timschoenfelder.com">
tim@timschoenfelder.com</a>><br>> *To:* Red Hat Network Users List <<a href="mailto:rhn-users@redhat.com">rhn-users@redhat.com</a>><br>> *Sent:* Monday, August 21, 2006 1:37 PM<br>> *Subject:* Re: [rhn-users] Gigabit transfer speeds
<br>><br>> Increase your packet size...<br>><br>> One of our networking class projects a couple years ago was to benchmark<br>> gigibit ethernet transfer speeds.<br>><br>> I benchmarked 700mb/s+ between two Linux PCs which was reasonable to our
<br>> instructor.<br>><br>> He emphasized that the brand/chipset of cards made a big difference ( it<br>> wasn't the most expensive that performed best ... ) as well as the drivers.<br>><br>> Some of his published tests as described below show that you can achieve
<br>> at least 700mb/s even with 32bit Netgear GA622T cards as illustrated in a ps<br>> link from his website:<br>><br>> <a href="http://www.cs.uni.edu/~gray/">http://www.cs.uni.edu/~gray/</a> <<a href="http://www.cs.uni.edu/%7Egray/">
http://www.cs.uni.edu/%7Egray/</a>><br>><br>> Benchmark project links:<br>> <a href="http://www.cs.uni.edu/~gray/gig-over-copper/">http://www.cs.uni.edu/~gray/gig-over-copper/</a><<a href="http://www.cs.uni.edu/%7Egray/gig-over-copper/">
http://www.cs.uni.edu/%7Egray/gig-over-copper/</a>><br>> <a href="http://www.cs.uni.edu/~gray/gig-over-copper/gig-over-copper.html">http://www.cs.uni.edu/~gray/gig-over-copper/gig-over-copper.html</a><<a href="http://www.cs.uni.edu/%7Egray/gig-over-copper/gig-over-copper.html">
http://www.cs.uni.edu/%7Egray/gig-over-copper/gig-over-copper.html</a>><br>><br>> PS file showing performance benchmarks ( note 700mb/s+ requires packet<br>> size of 100k+ bytes ):<br>><br>> <a href="http://www.cs.uni.edu/~gray/gig-over-copper/hsln-lcn.ps">
http://www.cs.uni.edu/~gray/gig-over-copper/hsln-lcn.ps</a><<a href="http://www.cs.uni.edu/%7Egray/gig-over-copper/hsln-lcn.ps">http://www.cs.uni.edu/%7Egray/gig-over-copper/hsln-lcn.ps</a>><br>><br>> Tim<br>>
<br>> On 8/21/06, Corne Beerse <<a href="mailto:cbeerse@gmail.com">cbeerse@gmail.com</a>> wrote:<br>> ><br>> > Dan Hunter wrote:<br>> ><br>> > > I regularly move large files from a windows XP machine to a Fedora
<br>> > > Core 5 machine.<br>> > > To avoid bothering other network users, I purchased two Linksys EG1032<br>> > > gigabit ether net cards.<br>> > > The cards have been installed.  a direct PC to PC gigabit cross over
<br>> > > cable connects them.<br>> > > A separate set of IP address have been set up.<br>> > > I can verify that data is being transfered over the gigabit cable with<br>> ><br>> > > windows task manager.
<br>> > ><br>> > > Transfers over the 10/100 link show up at 82 or 83 percent - about 80<br>> > > Mbps.<br>> > > Transfers over the gigabit link show up at 20 to 26 percent - about<br>> > > 230 Mbps.
<br>> > ><br>> > > What do I have set up wrong?<br>> > ><br>> > ><br>> > Your expectations are to high. If you have about 20% utilisation with a<br>> > Gbit nic, I'd say you are doing verry nice.
<br>> ><br>> > With the move to gigabit networking, the nic is no longer the<br>> > bottleneck. If you move data from disk on one machine or to disk on an<br>> > other, the disk-controllers, disk interfaces or even the actual disks
<br>> > are most likely the bottlenecks. Then, the disk does not need to be the<br>> > bottleneck. Think about the speed of internal busses and for which they<br>> > are used while you are dumping data...
<br>> ><br>> ><br>> > CBee<br>> ><br>> > _______________________________________________<br>> > rhn-users mailing list<br>> > <a href="mailto:rhn-users@redhat.com">rhn-users@redhat.com
</a><br>> > <a href="https://www.redhat.com/mailman/listinfo/rhn-users">https://www.redhat.com/mailman/listinfo/rhn-users</a><br>> ><br>><br>><br>><br>> --<br>> Tim Schoenfelder<br>> <a href="http://timschoenfelder.com">
http://timschoenfelder.com</a><br>><br>> ------------------------------<br>><br>> _______________________________________________<br>> rhn-users mailing list<br>> <a href="mailto:rhn-users@redhat.com">rhn-users@redhat.com
</a><br>> <a href="https://www.redhat.com/mailman/listinfo/rhn-users">https://www.redhat.com/mailman/listinfo/rhn-users</a><br>><br>><br>> _______________________________________________<br>> rhn-users mailing list
<br>> <a href="mailto:rhn-users@redhat.com">rhn-users@redhat.com</a><br>> <a href="https://www.redhat.com/mailman/listinfo/rhn-users">https://www.redhat.com/mailman/listinfo/rhn-users</a><br>><br>><br><br><br>
--<br>Tim Schoenfelder<br><a href="http://timschoenfelder.com">http://timschoenfelder.com</a><br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: <a href="https://www.redhat.com/archives/rhn-users/attachments/20060822/4ff3bc26/attachment.html">
https://www.redhat.com/archives/rhn-users/attachments/20060822/4ff3bc26/attachment.html</a><br><br>------------------------------<br><br>_______________________________________________<br>rhn-users mailing list<br><a href="mailto:rhn-users@redhat.com">
rhn-users@redhat.com</a><br><a href="https://www.redhat.com/mailman/listinfo/rhn-users">https://www.redhat.com/mailman/listinfo/rhn-users</a><br><br>End of rhn-users Digest, Vol 30, Issue 28<br>*****************************************
<br></blockquote></div><br><br clear="all"><br>-- <br>Vishal Gaurav