<div dir="ltr">You need to tweak NUMA because your previous CPU was not NUMA, and your new one is. Having the VM running on some CPU cores on one physical package, but accessing ram that's attached to other CPU cores on a different package can cause a lot of overhead. You want to avoid that.<br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Aug 14, 2019 at 7:31 PM Roger Lawhorn <<a href="mailto:rll@twc.com">rll@twc.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
  
    
  
  <div bgcolor="#FFFFFF">
    Just a note:<br>
    So far to resolve this I have had to use the kernel boot line
    options "rcu_nocbs=0-23 processor.max_cstate=5". <br>
    This fixes a known hardware bug in ryzen cpus that leads to constant
    crashing in linux.<br>
    I also compiled qemu 4.1.0-rc4.<br>
    Though it seems better I still suffer severe lag during heavy
    loading of textures and 3d objects.<br>
    The test games are fallout 4 and fallout 76.<br>
    The virtual machine is stored on a 1tb intel ssd.<br>
    On a 4 core i7 4940mx it was perfect.<br>
    On my new 12 core threadripper it lags out.<br>
    As long as the game isnt loading anything new it runs fine.<br>
    I never tweaked 'numa' before and I don't see why i need to now.<br>
    <br>
    Any ideas?<br>
    <br>
    <br>
    I am on this till it works or I am out $3000.<br>
    <br>
    <br>
    <div class="gmail-m_8585521698912817942moz-cite-prefix">On 8/12/19 6:56 AM, Roger Lawhorn
      wrote:<br>
    </div>
    <blockquote type="cite">
      
      <img src="cid:16c932c59ae47c2e0b81" alt="" width="810" height="784"><br>
      <br>
      <div class="gmail-m_8585521698912817942moz-cite-prefix">On 8/11/19 9:59 PM, <a class="gmail-m_8585521698912817942moz-txt-link-abbreviated" href="mailto:gamanakis@gmail.com" target="_blank">gamanakis@gmail.com</a>
        wrote:<br>
      </div>
      <blockquote type="cite">
        <pre class="gmail-m_8585521698912817942moz-quote-pre">You could probably get rid of all the lag you experience. Possibly qemu 4.0
provides better topology to the guest. Generally Threadripper CPUs have 2
NUMA nodes, and you would want to pin the vcpus of the guest to one NUMA
node, and also allocate RAM from the same NUMA node. You would also have to
make sure the passthrough devices sit on corresponding PCIe lanes which that
NUMA node controls. There is lots of good info in <a href="http://reddit.com/r/vfio" target="_blank">reddit.com/r/vfio</a>. Please
also provide your xml file (or script), and what you use as a virtualized
hard drive. Is it a passthrough NVMe, or virtio-scsi? In the latter case you
should also pin iothreads on the same NUMA node as everything else.
You can see the topology and NUMA nodes of your cpu by running lstopo. 

I am eager to see a configuration that uses both NUMA nodes of a
Threadripper CPU in one guest with minimal latency.

</pre>
        <blockquote type="cite">
          <pre class="gmail-m_8585521698912817942moz-quote-pre">-----Original Message-----
From: <a class="gmail-m_8585521698912817942moz-txt-link-abbreviated" href="mailto:vfio-users-bounces@redhat.com" target="_blank">vfio-users-bounces@redhat.com</a> <a class="gmail-m_8585521698912817942moz-txt-link-rfc2396E" href="mailto:vfio-users-bounces@redhat.com" target="_blank"><vfio-users-bounces@redhat.com></a>
On Behalf Of Roger Lawhorn
Sent: Sunday, August 11, 2019 9:31 PM
To: <a class="gmail-m_8585521698912817942moz-txt-link-abbreviated" href="mailto:vfio-users@redhat.com" target="_blank">vfio-users@redhat.com</a>
Subject: Re: [vfio-users] threadripper slowness

Hello,

Just wanted to mention that I got rid of a lot of the lag by compiling
</pre>
        </blockquote>
        <pre class="gmail-m_8585521698912817942moz-quote-pre">qemu 4.0.
</pre>
        <blockquote type="cite">
          <pre class="gmail-m_8585521698912817942moz-quote-pre">I dod not know if its a threadripper issue or not.
The lag directly coincides with hard drive access.
No hard drive access, no game lag.
I have redhat virtio drivers installed for the hard drive and the nic.
Are these drivers intel only?
They are left only from my i7-4940mx processor install.


On 8/9/19 11:51 AM, Roger Lawhorn wrote:
</pre>
          <blockquote type="cite">
            <pre class="gmail-m_8585521698912817942moz-quote-pre">Hello.
I am new to the list.
I have been doing gpu passthrough for almost 5 years now with a i7
4940mx cpu on a msi gt70 laptop.

My new PC build is:
MSI x399 carbon pro motherboard : bios xxxxxx.1c0 : svm=enabled:
iommu=enabled
Threadripper 2920 12 core
Radeon pro duo R9 Fury X
Nvidia 980 TI OC

I was unable to passthrough the nvidia card due to it not getting past
the "Running option rom..." message when debugging.

The Radeon passed through with flying colors.

The issue:
I used the radeon to run triple A games in linux using steam for linux
and proton. No problems.

In Windows 7 in qemu I have passed all 24 cpus to it.
They max out to 80% while playing the same triple A games and the
games lag.
I have never had this issue before.

Admittedly I am using the same script I used on the i7 to get going.
I had to remove threads from the -smp switch and use cores only.

I also removed the kvm=off which is used for nvidia cards.

I am looking for links to articles or direct info on what to do to
optimize the cpus.
When not lagging the radeon performs extremely well.

I am concerned that perhaps kvm is not being used.


Thanks

_______________________________________________
vfio-users mailing list
<a class="gmail-m_8585521698912817942moz-txt-link-abbreviated" href="mailto:vfio-users@redhat.com" target="_blank">vfio-users@redhat.com</a>
<a class="gmail-m_8585521698912817942moz-txt-link-freetext" href="https://www.redhat.com/mailman/listinfo/vfio-users" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a>

</pre>
          </blockquote>
          <pre class="gmail-m_8585521698912817942moz-quote-pre">_______________________________________________
vfio-users mailing list
<a class="gmail-m_8585521698912817942moz-txt-link-abbreviated" href="mailto:vfio-users@redhat.com" target="_blank">vfio-users@redhat.com</a>
<a class="gmail-m_8585521698912817942moz-txt-link-freetext" href="https://www.redhat.com/mailman/listinfo/vfio-users" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a>
</pre>
        </blockquote>
      </blockquote>
      <br>
      <br>
      <fieldset class="gmail-m_8585521698912817942mimeAttachmentHeader"></fieldset>
      <pre class="gmail-m_8585521698912817942moz-quote-pre">_______________________________________________
vfio-users mailing list
<a class="gmail-m_8585521698912817942moz-txt-link-abbreviated" href="mailto:vfio-users@redhat.com" target="_blank">vfio-users@redhat.com</a>
<a class="gmail-m_8585521698912817942moz-txt-link-freetext" href="https://www.redhat.com/mailman/listinfo/vfio-users" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a>
</pre>
    </blockquote>
    <br>
  </div>

_______________________________________________<br>
vfio-users mailing list<br>
<a href="mailto:vfio-users@redhat.com" target="_blank">vfio-users@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/vfio-users" rel="noreferrer" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a><br>
</blockquote></div>