<html>
  <head>
    <meta content="text/html; charset=ISO-8859-1"
      http-equiv="Content-Type">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    <div class="moz-cite-prefix">Il 18/04/2014 23:43, Matthew Madey ha
      scritto:<br>
    </div>
    <blockquote
cite="mid:CACPFK3oyjUGKEJc_wiXQOkVZqmWy_xpqsh_W8=HW-RZaQz_FSA@mail.gmail.com"
      type="cite">
      <div dir="ltr">Looking to get some feedback on performance
        settings any of you may have done on your Spacewalk server
        and\or external Oracle Database servers.
        <div><br>
        </div>
        <div>I'm looking to patch 1600 systems simultaneously to meet
          our business requirements.. at our current settings with an 8
          CPU \ 32 GB RAM Spacewalk server, I can patch 400 systems
          simultaneously without much issue. Much of our bottleneck
          appears to be disk await time on the Oracle database side,
          which we are addressing, but I'm wondering if there are other
          kernel\tomcat\apache settings I should be looking at to
          improve handling of all the XMLRPC traffic coming in to the
          Spacewalk server. </div>
        <div>400 systems appears to be our hard limit at the moment,
          adding just an additional 50 or so leads to some pretty
          catastrophic effects. I haven't seen any GC or JVM errors in
          catalina.out thus far, but our memory usage goes through the
          roof and begin swapping badly. My guess is that the wait time
          on the database is so bad the Spacewalk server starts
          backlogging requests until it runs out of memory. </div>
        <div><br>
        </div>
        <div>Has anyone else attempted to patch this volume of systems
          at one time? If so, what changes did you make to the server
          configuration to accommodate that? </div>
        <div><br>
        </div>
        <div><br>
        </div>
        <div><br>
        </div>
        <div>Below are some of the network tuning parameters we've
          entered. </div>
        <div><br>
        </div>
        <div>
          <div>net.ipv4.tcp_max_syn_backlog = 8192</div>
          <div>net.ipv4.tcp_syncookies = 1</div>
          <div>net.ipv4.conf.all.rp_filter = 1</div>
          <div>net.ipv4.conf.all.accept_source_route = 0</div>
          <div>net.ipv4.conf.all.accept_redirects = 0</div>
          <div>net.ipv4.conf.all.secure_redirects = 0</div>
          <div>net.ipv4.conf.default.rp_filter = 1</div>
          <div>net.ipv4.conf.default.accept_source_route = 0</div>
          <div>net.ipv4.conf.default.accept_redirects = 0</div>
          <div>net.ipv4.conf.default.secure_redirects = 0</div>
          <div>net.ipv4.icmp_echo_ignore_broadcasts = 1</div>
          <div>net.ipv4.ip_forward = 0</div>
          <div>net.ipv4.conf.all.send_redirects = 0</div>
          <div>net.ipv4.conf.default.send_redirects = 0</div>
          <div>net.ipv4.neigh.default.unres_qlen = 3</div>
          <div><br>
          </div>
          <div>#Added OSE Tuning</div>
          <div>###8x normal for faster network queue draining</div>
          <div>net.core.dev_weight = 512</div>
          <div>#</div>
          <div>###3x normal for a queue and budget suited to networks
            greater than 100mbps</div>
          <div>net.core.netdev_budget = 10000</div>
          <div>net.core.netdev_max_backlog = 30000</div>
          <div>net.core.rmem_max = 4194304 </div>
          <div>net.core.wmem_max = 1048586</div>
          <div><br>
          </div>
          <div>####min, default (BDP), max (2xBDP) for window scaling
            (BDP calculated for 10gbps link speed and near zero latency
            in a LAN)</div>
          <div>net.ipv4.tcp_rmem = 4096 87380  4194304</div>
          <div>net.ipv4.tcp_wmem = 4096 16384<span class=""
              style="white-space:pre"> </span>4194304</div>
          <div><br>
          </div>
          <div>####Affects UDP streams similarly to the above for TCP.</div>
          <div>net.core.rmem_default = 312500</div>
          <div>
            net.core.wmem_default = 312500</div>
          <div><br>
          </div>
          <div>###Enable Packetization Layer Path MTU Discovery
            (PLPMTUD)</div>
          <div>net.ipv4.tcp_mtu_probing = 1</div>
          <div><br>
          </div>
          <div>net.core.somaxconn = 1536</div>
        </div>
        <div>
          <br>
        </div>
      </div>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
Spacewalk-list mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Spacewalk-list@redhat.com">Spacewalk-list@redhat.com</a>
<a class="moz-txt-link-freetext" href="https://www.redhat.com/mailman/listinfo/spacewalk-list">https://www.redhat.com/mailman/listinfo/spacewalk-list</a></pre>
    </blockquote>
    <br>
    hello Matthew,<br>
    <br>
    never tried your workloads... but simple question: have you tried to
    disable https for http?<br>
    <br>
    best regards<br>
    a<br>
    <pre class="moz-signature" cols="72">-- 
Amedeo Salvati
</pre>
  </body>
</html>