<p dir="ltr">Hello! </p>
<p dir="ltr">The main source of load of host during vm is: Skype, music, samba transfers. </p>
<p dir="ltr">If you want, you can try heroes of the storm. It is a free game. A simple game versus bots. At first fight, fps drop hardly. </p>
<p dir="ltr">I play battlefront and fallout 4 without any problems also on 6 cores.  I think the issue is specific to this game. But with closes sources... It is hard to debug and know why dpc affect it so much. (or something else) </p>
<p dir="ltr">I should try to pass pci usb3. But if I remember, it is not iommu friendly. </p>
<p dir="ltr">My hard is:<br>
- 4790k<br>
- Asrock extreme 6<br>
- R9 290 (i use it's sound output plugged to line in of Linux.)</p>
<p dir="ltr">All is msi but sound of gpu. No problem anyway with it sound is perfect. <br></p>
<p dir="ltr">I am on holiday. I can do more testing when I am back (next week). </p>
<div class="gmail_quote">On 17 Jan 2016 1:19 pm, "Milos Kaurin" <<a href="mailto:milos.kaurin@gmail.com">milos.kaurin@gmail.com</a>> wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hello guys,<br>
<br>
I just tested with Quentin's method, and did some more tests in general<br>
<br>
Key things to note:<br>
1. I use an Nvidia card<br>
2. I don't pass through individual USB devices,<br>
   I pass an entire USB3 controller (PCI)<br>
<br>
Here are my results:<br>
<br>
Bare metal:<br>
FPS: 48.7<br>
Score: 2036<br>
Min FPS: 23.4<br>
Max FPS: 90.6<br>
DPS:  Floats around ~1042µs<br>
DPS absolute max: 1545µs (rare occurrence)<br>
DPS polling is at 500µs<br>
<br>
pin/shield/hugetables/cpu 1x3x1 (Quentin's best-scenario use):<br>
FPS: 48.1<br>
Score: 2011<br>
Min FPS: 22.7<br>
Max FPS: 92.3<br>
DPS: Floats around ~1042µs,<br>
DPS absolute max 2043µs (rare occurrence).<br>
DPS polling is at 976µs<br>
<br>
pin/cpuisol/hugetables/cpu 1x3x2 (cpuisol instead of shield script)<br>
FPS: 47.9~<br>
Score: 2005~<br>
Min FPS: 19.7~<br>
Max FPS: 91.5~<br>
DPS: Floats around ~2000, unstable!<br>
DPS absolute max 22k (rare occurrence, but happens more often than other tests).<br>
DPS polling is at 476µs<br>
<br>
nopin/hugetables/cpu 1x4x2 (My old use)<br>
FPS: 47.9<br>
Score: 2005<br>
Min FPS: 19.7<br>
Max FPS: 91.5<br>
DPS: Floats around ~1145µs,<br>
DPS absolute max 12025µs (rare occurrence).<br>
DPS polling is at 976µs<br>
<br>
pin/hugetables/cpu 1x3x2 (My new preffered)<br>
FPS: 47.9~<br>
Score: 2011<br>
Min FPS: 19.7~<br>
Max FPS: 91.5~<br>
DPS: Floats around ~1145µs,<br>
DPS absolute max 12025µs (rare occurrence).<br>
DPS polling is at 976µs<br>
<br>
Other notes:<br>
* Pinning IOthreads and/or emulator doesn't do much for DPC/performance<br>
   - Didn't put any load on the host, though. It might have impact if the host<br>
     has some load<br>
* Even though I get best DPC/performance with Quentin's use, I don't see any<br>
  reason to not use my old nopin 1x4x2 or pin 1x3x2 as I obviously don't<br>
  have the same performance issues<br>
* I have been playing quite a lot of Rocket League and some Fallout 4, without<br>
  noticing any kind of sound/graphics issues.<br>
<br>
Quentin, this might be specific to your hardware. Let me know if you want me to<br>
run more tests.<br>
<br>
Regards,<br>
Milos<br>
<br>
On Mon, Jan 11, 2016 at 3:08 PM, Quentin Deldycke<br>
<<a href="mailto:quentindeldycke@gmail.com">quentindeldycke@gmail.com</a>> wrote:<br>
> Hello,<br>
><br>
> I use intel cpu (i7 4790k). But yes i have an R9 290 as gpu.<br>
> I try to offload to core 0, so in fact i can keep threads 0 and 4 for linux<br>
> The rest of your resume is right.<br>
><br>
><br>
> I use the same program for dpc check. Is also available: latencymon.<br>
> But i find dpclat more interesting.<br>
> <a href="http://www.resplendence.com/latencymon" rel="noreferrer" target="_blank">http://www.resplendence.com/latencymon</a><br>
><br>
> Script for moving all threads to 0,4:<br>
> <a href="https://github.com/qdel/scripts/blob/master/vfio/shieldbuild" rel="noreferrer" target="_blank">https://github.com/qdel/scripts/blob/master/vfio/shieldbuild</a><br>
><br>
> XML file:<br>
> <a href="https://github.com/qdel/scripts/blob/master/vfio/win10.xml" rel="noreferrer" target="_blank">https://github.com/qdel/scripts/blob/master/vfio/win10.xml</a><br>
><br>
> Kernel command line:<br>
> intel_iommu=on iommu=pt vfio_iommu_type1.allow_unsafe_interrupts=1<br>
> kvm.ignore_msrs=1 drm.rnodes=1 i915.modeset=1<br>
> nohz_full=1,2,3,4,5,6,7 rcu_nocbs=1,2,3,4,5,6,7<br>
> default_hugepagesz=1G hugepagesz=1G hugepages=12<br>
><br>
><br>
> Notes about my setup:<br>
> * I have 3 monitors. All are connected to intel<br>
>   2 of them have a input in AMD. With xrandr<br>
>   i can disable these screens and they switch source<br>
>   (at least one, the other is buggy, most times i need to push the source<br>
> button).<br>
> * I pass also a NVMe drive (this thing is actually BRUTAL!!!)<br>
>   - I can boot the same drive on native!<br>
> * I pass my second network card<br>
> * I pass one of my sata controller (i have ntfs drives there)<br>
> * I pass usb devices and not the whole controller<br>
>   - with the little udev script i plug new devices to the vm if this one is<br>
> started<br>
> * Sound is output by HDMI and back into line in of pc. I can use the line in<br>
> control to<br>
>   modify the sound of the whole vm. Work perfectly actually.<br>
> * Best thing for this is dual monitor + synergy :)<br>
><br>
><br>
> --<br>
> Deldycke Quentin<br>
><br>
><br>
> On 11 January 2016 at 15:06, Milos Kaurin <<a href="mailto:milos.kaurin@gmail.com">milos.kaurin@gmail.com</a>> wrote:<br>
>><br>
>> Hello,<br>
>><br>
>> Yes, I have a corei7.<br>
>><br>
>> I have to admit that seeing Quentin's e-mail was the first I found out<br>
>> about DPC latency. I'm taking a strictly empirical approach for now,<br>
>> but I'd like to dive deeper into this, at least to provide a reference<br>
>> point for you guys.<br>
>> Reason for this being is that even though I'm familiar with Linux, I'm<br>
>> don't have low-level familiarity as you guys have (other than<br>
>> conceptual). I'm more than willing to learn given the opportunity,<br>
>> though.<br>
>><br>
>> Quentin:<br>
>> From what I understand about your use:<br>
>> * You have an AMD CPU<br>
>> * In your kernel parameters, you are trying to offload your<br>
>> scheduling-clock interrupts to only thread(core?) 0.<br>
>> * Your script sets kernel memory management, future tasks and current<br>
>> tasks to be run at thread 0<br>
>> * Valley bench seems to be most sensitive to DPC latency issues (as<br>
>> well as "Heroes of the storm")<br>
>> * Pinning only 3 cores to the VM gives you best results, but seeing<br>
>> that newer games take advantage of multiple cores, you'd like to have<br>
>> an option to use more cores for winVirt<br>
>><br>
>> What I'd like from you:<br>
>> * Can you provide me with the optimal (3core -> VM) settings,<br>
>> including kernel parameters, your updated script and the XML of your<br>
>> virt in this mode of use.<br>
>> * Can you provide me with a method how to keep track of DPC latency? I<br>
>> found this: <a href="http://www.thesycon.de/deu/latency_check.shtml" rel="noreferrer" target="_blank">http://www.thesycon.de/deu/latency_check.shtml</a> , but I'd<br>
>> like us to use the same method.<br>
>><br>
>> Why I'm asking all of this:<br>
>> Just ran valley (HD extreme). These are the results:<br>
>><br>
>>  *Bare-metal:<br>
>> FPS: 48.7<br>
>> Score: 2036<br>
>> Min FPS: 23.4<br>
>> Max FPS:90.6<br>
>><br>
>> * hugetables, nopin, 1x4x2, host-passthrough:<br>
>> FPS: 47.9<br>
>> Score: 2005<br>
>> Min FPS: 19.7<br>
>> Max FPS: 91.5<br>
>><br>
>> The score is ~1.5 % worse in the virt.<br>
>> The min FPS difference (which looks significant) might be negligible<br>
>> because I'm running Firefox in the host with a bunch of tabs open<br>
>> (idle, though)<br>
>><br>
>> I have also been playing "Rocket League" in the virt which is a very<br>
>> twitchy game, and I play it on an experienced level. I did not find<br>
>> any problems with playing the game like this.<br>
>><br>
>> My current XML: <a href="https://gist.github.com/Kaurin/0b6726e8a94084bd0b64" rel="noreferrer" target="_blank">https://gist.github.com/Kaurin/0b6726e8a94084bd0b64</a><br>
>> PCI devices passed through: nvidia+HDMI audio, onboard sound, onboard<br>
>> XHCI USB controller<br>
>><br>
>> Notes about my setup:<br>
>> * Both virt and host are hooked up to the same monitor (host-VGA / virt -<br>
>> DVI).<br>
>> * I also don't have any additional USB controllers, which means that<br>
>> when I turn on the virt, I lose my usb(mouse,keyboard) on the host<br>
>> * Same goes for sound: when I turn on the virt, I lose sound in the host<br>
>> * I just flip the monitor input and I'm good to go.<br>
>> * I have plans to set up new hardware so I can use both host/virt at<br>
>> the same time<br>
>><br>
>> Let me know if my further input would be useful.<br>
>><br>
>> Regards,<br>
>> Milos<br>
>><br>
>><br>
>><br>
>> On Mon, Jan 11, 2016 at 9:19 AM, Quentin Deldycke<br>
>> <<a href="mailto:quentindeldycke@gmail.com">quentindeldycke@gmail.com</a>> wrote:<br>
>> > In fact, some games react quite well to this latency. Fallout for<br>
>> > example<br>
>> > doesn't show much difference between host - vm with brutal DPC and vm<br>
>> > with<br>
>> > "good dpc".<br>
>> ><br>
>> > I tested 3 modes:<br>
>> ><br>
>> > - all 8 core to vm without pinning: brutal dpc, did not tried to play<br>
>> > games<br>
>> > on it. Only ungine valley => 2600 points<br>
>> > - 6 cores pinned to the vm + emulator on core 0,1: correct latency. Most<br>
>> > games work flawlessly (bf4 / battlefront / diablo III) but some are<br>
>> > catastrophic: Heroes of the storm. valley => 2700<br>
>> > - 3 cores pinned to vm: Perfect latency, all games work ok. But i am<br>
>> > affraid<br>
>> > 3 cores are a bit 'not enough" for incoming games. valley => 3100 points<br>
>> ><br>
>> > I think that valley is  a good benchmark. It is free and small. It seems<br>
>> > to<br>
>> > be affected by this latency problem like most games.<br>
>> ><br>
>> ><br>
>> ><br>
>> ><br>
>> > --<br>
>> > Deldycke Quentin<br>
>> ><br>
>> ><br>
>> > On 11 January 2016 at 09:59, rndbit <<a href="mailto:rndbit@sysret.net">rndbit@sysret.net</a>> wrote:<br>
>> >><br>
>> >> Tried Milos' config too - DPC latency got worse. I use AMD cpu though<br>
>> >> so<br>
>> >> its hardly comparable.<br>
>> >> One thing to note is that both VM and bare metal (same OS) score around<br>
>> >> 5k<br>
>> >> points in 3dmark fire strike test (VM 300 points less). Sounds not too<br>
>> >> bad<br>
>> >> but in reality bf4 is pretty much unplayable in VM due to bad<br>
>> >> performance<br>
>> >> and sound glitches while playing it on bare metal is just fine. Again<br>
>> >> DPC<br>
>> >> latency on bare metal even under load is ok - occasional spike here and<br>
>> >> there but mostly its within norm. Any kind of load on VM makes DPC go<br>
>> >> nuts<br>
>> >> and performance is terrible. I even tried isolcpus=4,5,6,7 and binding<br>
>> >> vm to<br>
>> >> those free cores - its all the same.<br>
>> >><br>
>> >> Interesting observation is that i used to play titanfall without a<br>
>> >> hitch<br>
>> >> in VM some time in the past, 3.10 kernel or so (no patches). When i get<br>
>> >> free<br>
>> >> moment ill try downgrading kernel, maybe problem is there.<br>
>> >><br>
>> >><br>
>> >> On 2016.01.11 10:39, Quentin Deldycke wrote:<br>
>> >><br>
>> >> Also, i juste saw something:<br>
>> >><br>
>> >> You use ultra (4k?) settings on a 770gtx. This is too heavy for it. You<br>
>> >> have less than 10fps. So in fact if you loose let's say 10% of<br>
>> >> performance,<br>
>> >> you will barely see it.<br>
>> >><br>
>> >> What we search is a very high reponse time. Could you please compare<br>
>> >> your<br>
>> >> system with a less heavy benchmark. It is easier to see the difference<br>
>> >> at<br>
>> >> ~50-70 fps.<br>
>> >><br>
>> >> In my case, this configuration work. But my fps fluctuate quite a lot.<br>
>> >> If<br>
>> >> you are a bit a serious gamer, this falls are not an option during game<br>
>> >> :)<br>
>> >><br>
>> >> --<br>
>> >> Deldycke Quentin<br>
>> >><br>
>> >><br>
>> >> On 11 January 2016 at 08:54, Quentin Deldycke<br>
>> >> <<a href="mailto:quentindeldycke@gmail.com">quentindeldycke@gmail.com</a>><br>
>> >> wrote:<br>
>> >>><br>
>> >>> Using this mode,<br>
>> >>><br>
>> >>> DPC Latency is hugely buggy using this mode.<br>
>> >>><br>
>> >>> My fps are also moving on an apocaliptic way: from 80 to 45 fps<br>
>> >>> without<br>
>> >>> moving on ungine valley.<br>
>> >>><br>
>> >>> Do you have anything working on your linux? (i have plasma doing<br>
>> >>> nothing<br>
>> >>> on another screen)<br>
>> >>><br>
>> >>> Ungine heaven went back to 2600 points from 3100<br>
>> >>> Cinebench r15: single core 124<br>
>> >>><br>
>> >>><br>
>> >>> Could you please send your whole xml file, qemu version and kernel<br>
>> >>> config<br>
>> >>> / boot?<br>
>> >>><br>
>> >>> I will try to get 3dmark and verify host / virtual comparison<br>
>> >>><br>
>> >>> --<br>
>> >>> Deldycke Quentin<br>
>> >>><br>
>> >>><br>
>> >>> On 9 January 2016 at 20:24, Milos Kaurin <<a href="mailto:milos.kaurin@gmail.com">milos.kaurin@gmail.com</a>><br>
>> >>> wrote:<br>
>> >>>><br>
>> >>>> My details:<br>
>> >>>> Intel(R) Core(TM) i7-4770 CPU @ 3.40GHz<br>
>> >>>> 32GB total ram<br>
>> >>>> hugetables@16x1GB for the guest (didn't have much to do with 3dmark<br>
>> >>>> results)<br>
>> >>>><br>
>> >>>> I have had the best performance with:<br>
>> >>>><br>
>> >>>>   <vcpu placement='static'>8</vcpu><br>
>> >>>>   <cpu mode='custom' match='exact'><br>
>> >>>>     <model fallback='allow'>host-passthrough</model><br>
>> >>>>     <topology sockets='1' cores='4' threads='2'/><br>
>> >>>>   </cpu><br>
>> >>>><br>
>> >>>> No CPU pinning on either guest or host<br>
>> >>>><br>
>> >>>> Benchmark example (Bare metal Win10 vs Fedora Guest Win10)<br>
>> >>>> <a href="http://www.3dmark.com/compare/fs/7076732/fs/7076627#" rel="noreferrer" target="_blank">http://www.3dmark.com/compare/fs/7076732/fs/7076627#</a><br>
>> >>>><br>
>> >>>><br>
>> >>>> Could you try my settings and report back?<br>
>> >>>><br>
>> >>>> On Sat, Jan 9, 2016 at 3:14 PM, Quentin Deldycke<br>
>> >>>> <<a href="mailto:quentindeldycke@gmail.com">quentindeldycke@gmail.com</a>> wrote:<br>
>> >>>> > I use virsh:<br>
>> >>>> ><br>
>> >>>> > ===SNIP===<br>
>> >>>> >   <vcpu placement='static'>3</vcpu><br>
>> >>>> >   <cputune><br>
>> >>>> >     <vcpupin vcpu='0' cpuset='1'/><br>
>> >>>> >     <vcpupin vcpu='1' cpuset='2'/><br>
>> >>>> >     <vcpupin vcpu='2' cpuset='3'/><br>
>> >>>> >     <emulatorpin cpuset='6-7'/><br>
>> >>>> >   </cputune><br>
>> >>>> > ===SNAP===<br>
>> >>>> ><br>
>> >>>> > I have a prepare script running:<br>
>> >>>> ><br>
>> >>>> > ===SNIP===<br>
>> >>>> > sudo mkdir /cpuset<br>
>> >>>> > sudo mount -t cpuset none /cpuset/<br>
>> >>>> > cd /cpuset<br>
>> >>>> > echo 0 | sudo tee -a cpuset.cpu_exclusive<br>
>> >>>> > echo 0 | sudo tee -a cpuset.mem_exclusive<br>
>> >>>> ><br>
>> >>>> > sudo mkdir sys<br>
>> >>>> > echo 'Building shield for core system... threads 0 and 4, and we<br>
>> >>>> > place<br>
>> >>>> > all<br>
>> >>>> > runnning tasks there'<br>
>> >>>> > /bin/echo 0,4 | sudo tee -a sys/cpuset.cpus<br>
>> >>>> > /bin/echo 0 | sudo tee -a sys/cpuset.mems<br>
>> >>>> > /bin/echo 0 | sudo tee -a sys/cpuset.cpu_exclusive<br>
>> >>>> > /bin/echo 0 | sudo tee -a sys/cpuset.mem_exclusive<br>
>> >>>> > for T in `cat tasks`; do sudo bash -c "/bin/echo $T ><br>
>> >>>> > sys/tasks">/dev/null<br>
>> >>>> > 2>&1 ; done<br>
>> >>>> > cd -<br>
>> >>>> > ===SNAP===<br>
>> >>>> ><br>
>> >>>> > Note that i use this command line for the kernel<br>
>> >>>> > nohz_full=1,2,3,4,5,6,7 rcu_nocbs=1,2,3,4,5,6,7<br>
>> >>>> > default_hugepagesz=1G<br>
>> >>>> > hugepagesz=1G hugepages=12<br>
>> >>>> ><br>
>> >>>> ><br>
>> >>>> > --<br>
>> >>>> > Deldycke Quentin<br>
>> >>>> ><br>
>> >>>> ><br>
>> >>>> > On 9 January 2016 at 15:40, rndbit <<a href="mailto:rndbit@sysret.net">rndbit@sysret.net</a>> wrote:<br>
>> >>>> >><br>
>> >>>> >> Mind posting actual commands how you achieved this?<br>
>> >>>> >><br>
>> >>>> >> All im doing now is this:<br>
>> >>>> >><br>
>> >>>> >> cset set -c 0-3 system<br>
>> >>>> >> cset proc -m -f root -t system -k<br>
>> >>>> >><br>
>> >>>> >>   <vcpu placement='static'>4</vcpu><br>
>> >>>> >>   <cputune><br>
>> >>>> >>     <vcpupin vcpu='0' cpuset='4'/><br>
>> >>>> >>     <vcpupin vcpu='1' cpuset='5'/><br>
>> >>>> >>     <vcpupin vcpu='2' cpuset='6'/><br>
>> >>>> >>     <vcpupin vcpu='3' cpuset='7'/><br>
>> >>>> >>     <emulatorpin cpuset='0-3'/><br>
>> >>>> >>   </cputune><br>
>> >>>> >><br>
>> >>>> >> Basically this puts most of threads to 0-3 cores including<br>
>> >>>> >> emulator<br>
>> >>>> >> threads. Some threads cant be moved though so they remain on 4-7<br>
>> >>>> >> cores. VM<br>
>> >>>> >> is given 4-7 cores. It works better but there is still much to be<br>
>> >>>> >> desired.<br>
>> >>>> >><br>
>> >>>> >><br>
>> >>>> >><br>
>> >>>> >> On 2016.01.09 15:59, Quentin Deldycke wrote:<br>
>> >>>> >><br>
>> >>>> >> Hello,<br>
>> >>>> >><br>
>> >>>> >> Using cpuset, i was using the vm with:<br>
>> >>>> >><br>
>> >>>> >> Core 0: threads 0 & 4: linux + emulator pin<br>
>> >>>> >> Core 1,2,3: threads 1,2,3,5,6,7: windows<br>
>> >>>> >><br>
>> >>>> >> I tested with:<br>
>> >>>> >> Core 0: threads 0 & 4: linux<br>
>> >>>> >> Core 1,2,3: threads 1,2,3: windows<br>
>> >>>> >> Core 1,2,3: threads 5,6,7: emulator<br>
>> >>>> >><br>
>> >>>> >> The difference between both is huge (DPC latency is mush more<br>
>> >>>> >> stable):<br>
>> >>>> >> Performance on single core went up to 50% (cinebench ratio by core<br>
>> >>>> >> from<br>
>> >>>> >> 100 to 150 points)<br>
>> >>>> >> Performance on gpu went up to 20% (cinebench from 80fps to 100+)<br>
>> >>>> >> Performance on "heroes of the storm" went from 20~30 fps to stable<br>
>> >>>> >> 60<br>
>> >>>> >> (and<br>
>> >>>> >> much time more than 100)<br>
>> >>>> >><br>
>> >>>> >> (performance of Unigine Heaven went from 2700 points to 3100<br>
>> >>>> >> points)<br>
>> >>>> >><br>
>> >>>> >> The only sad thing is that i have the 3 idle threads which are<br>
>> >>>> >> barely<br>
>> >>>> >> used... Is there any way to put them back to windows?<br>
>> >>>> >><br>
>> >>>> >> --<br>
>> >>>> >> Deldycke Quentin<br>
>> >>>> >><br>
>> >>>> >><br>
>> >>>> >> On 29 December 2015 at 17:38, Michael Bauer <<a href="mailto:michael@m-bauer.org">michael@m-bauer.org</a>><br>
>> >>>> >> wrote:<br>
>> >>>> >>><br>
>> >>>> >>> I noticed that attaching a DVD-Drive from the host leads to HUGE<br>
>> >>>> >>> delays.<br>
>> >>>> >>> I had attached my /dev/sr0 to the guest and even without a DVD in<br>
>> >>>> >>> the drive<br>
>> >>>> >>> this was causing huge lag about once per second.<br>
>> >>>> >>><br>
>> >>>> >>> Best regards<br>
>> >>>> >>> Michael<br>
>> >>>> >>><br>
>> >>>> >>><br>
>> >>>> >>> Am 28.12.2015 um 19:30 schrieb rndbit:<br>
>> >>>> >>><br>
>> >>>> >>> 4000μs-16000μs here, its terrible.<br>
>> >>>> >>> Tried whats said on<br>
>> >>>> >>> <a href="https://lime-technology.com/forum/index.php?topic=43126.15" rel="noreferrer" target="_blank">https://lime-technology.com/forum/index.php?topic=43126.15</a><br>
>> >>>> >>> Its a bit better with this:<br>
>> >>>> >>><br>
>> >>>> >>>   <vcpu placement='static'>4</vcpu><br>
>> >>>> >>>   <cputune><br>
>> >>>> >>>     <vcpupin vcpu='0' cpuset='4'/><br>
>> >>>> >>>     <vcpupin vcpu='1' cpuset='5'/><br>
>> >>>> >>>     <vcpupin vcpu='2' cpuset='6'/><br>
>> >>>> >>>     <vcpupin vcpu='3' cpuset='7'/><br>
>> >>>> >>>     <emulatorpin cpuset='0-3'/><br>
>> >>>> >>>   </cputune><br>
>> >>>> >>><br>
>> >>>> >>> I tried isolcpus but it did not yield visible benefits. ndis.sys<br>
>> >>>> >>> is<br>
>> >>>> >>> big<br>
>> >>>> >>> offender here but i dont really understand why. Removing network<br>
>> >>>> >>> interface<br>
>> >>>> >>> from VM makes usbport.sys take over as biggest offender. All this<br>
>> >>>> >>> happens<br>
>> >>>> >>> with performance governor of all cpu cores:<br>
>> >>>> >>><br>
>> >>>> >>> echo performance | tee<br>
>> >>>> >>> /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor >/dev/null<br>
>> >>>> >>><br>
>> >>>> >>> Cores remain clocked at 4k mhz. I dont know what else i could<br>
>> >>>> >>> try.<br>
>> >>>> >>> Does<br>
>> >>>> >>> anyone have any ideas..?<br>
>> >>>> >>><br>
>> >>>> >>> On 2015.10.29 08:03, Eddie Yen wrote:<br>
>> >>>> >>><br>
>> >>>> >>> I tested again with VM reboot, I found that this time is about<br>
>> >>>> >>> 1000~1500μs.<br>
>> >>>> >>> Also I found that it easily get high while hard drive is loading,<br>
>> >>>> >>> but<br>
>> >>>> >>> only few times.<br>
>> >>>> >>><br>
>> >>>> >>> Which specs you're using? Maybe it depends on CPU or patches.<br>
>> >>>> >>><br>
>> >>>> >>> 2015-10-29 13:44 GMT+08:00 Blank Field<br>
>> >>>> >>> <<a href="mailto:ihatethisfield@gmail.com">ihatethisfield@gmail.com</a>>:<br>
>> >>>> >>>><br>
>> >>>> >>>> If i understand it right, this software has a fixed latency<br>
>> >>>> >>>> error<br>
>> >>>> >>>> of 1<br>
>> >>>> >>>> ms(1000us) in windows 8-10 due to different kernel timer<br>
>> >>>> >>>> implementation. So<br>
>> >>>> >>>> i guess your latency is very good.<br>
>> >>>> >>>><br>
>> >>>> >>>> On Oct 29, 2015 8:40 AM, "Eddie Yen" <<a href="mailto:missile0407@gmail.com">missile0407@gmail.com</a>><br>
>> >>>> >>>> wrote:<br>
>> >>>> >>>>><br>
>> >>>> >>>>> Thanks for information! And sorry I don'r read carefully at<br>
>> >>>> >>>>> beginning<br>
>> >>>> >>>>> message.<br>
>> >>>> >>>>><br>
>> >>>> >>>>> For my result, I got about 1000μs below and only few times got<br>
>> >>>> >>>>> 1000μs<br>
>> >>>> >>>>> above when idling.<br>
>> >>>> >>>>><br>
>> >>>> >>>>> I'm using 4820K and used 4 threads to VM, also  I set these 4<br>
>> >>>> >>>>> threads<br>
>> >>>> >>>>> as 4 cores in VM settings.<br>
>> >>>> >>>>> The OS is Windows 10.<br>
>> >>>> >>>>><br>
>> >>>> >>>>> 2015-10-29 13:21 GMT+08:00 Blank Field<br>
>> >>>> >>>>> <<a href="mailto:ihatethisfield@gmail.com">ihatethisfield@gmail.com</a>>:<br>
>> >>>> >>>>>><br>
>> >>>> >>>>>> I think they're using this:<br>
>> >>>> >>>>>> <a href="http://www.thesycon.de/deu/latency_check.shtml" rel="noreferrer" target="_blank">www.thesycon.de/deu/latency_check.shtml</a><br>
>> >>>> >>>>>><br>
>> >>>> >>>>>> On Oct 29, 2015 6:11 AM, "Eddie Yen" <<a href="mailto:missile0407@gmail.com">missile0407@gmail.com</a>><br>
>> >>>> >>>>>> wrote:<br>
>> >>>> >>>>>>><br>
>> >>>> >>>>>>> Sorry, but how to check DPC Latency?<br>
>> >>>> >>>>>>><br>
>> >>>> >>>>>>> 2015-10-29 10:08 GMT+08:00 Nick Sukharev<br>
>> >>>> >>>>>>> <<a href="mailto:nicksukharev@gmail.com">nicksukharev@gmail.com</a>>:<br>
>> >>>> >>>>>>>><br>
>> >>>> >>>>>>>> I just checked on W7 and I get 3000μs-4000μs one one of the<br>
>> >>>> >>>>>>>> guests<br>
>> >>>> >>>>>>>> when 3 guests are running.<br>
>> >>>> >>>>>>>><br>
>> >>>> >>>>>>>> On Wed, Oct 28, 2015 at 4:52 AM, Sergey Vlasov<br>
>> >>>> >>>>>>>> <<a href="mailto:sergey@vlasov.me">sergey@vlasov.me</a>><br>
>> >>>> >>>>>>>> wrote:<br>
>> >>>> >>>>>>>>><br>
>> >>>> >>>>>>>>> On 27 October 2015 at 18:38, LordZiru <<a href="mailto:lordziru@gmail.com">lordziru@gmail.com</a>><br>
>> >>>> >>>>>>>>> wrote:<br>
>> >>>> >>>>>>>>>><br>
>> >>>> >>>>>>>>>> I have brutal DPC Latency on qemu, no matter if using<br>
>> >>>> >>>>>>>>>> pci-assign<br>
>> >>>> >>>>>>>>>> or vfio-pci or without any passthrought,<br>
>> >>>> >>>>>>>>>><br>
>> >>>> >>>>>>>>>> my DPC Latency is like:<br>
>> >>>> >>>>>>>>>> 10000,500,8000,6000,800,300,12000,9000,700,2000,9000<br>
>> >>>> >>>>>>>>>> and on native windows 7 is like:<br>
>> >>>> >>>>>>>>>> 20,30,20,50,20,30,20,20,30<br>
>> >>>> >>>>>>>>><br>
>> >>>> >>>>>>>>><br>
>> >>>> >>>>>>>>> In Windows 10 guest I constantly have red bars around<br>
>> >>>> >>>>>>>>> 3000μs<br>
>> >>>> >>>>>>>>> (microseconds), spiking sometimes up to 10000μs.<br>
>> >>>> >>>>>>>>><br>
>> >>>> >>>>>>>>>><br>
>> >>>> >>>>>>>>>> I don't know how to fix it.<br>
>> >>>> >>>>>>>>>> this matter for me because i are using USB Sound Card for<br>
>> >>>> >>>>>>>>>> my<br>
>> >>>> >>>>>>>>>> VMs,<br>
>> >>>> >>>>>>>>>> and i get sound drop-outs every 0-4 secounds<br>
>> >>>> >>>>>>>>>><br>
>> >>>> >>>>>>>>><br>
>> >>>> >>>>>>>>> That bugs me a lot too. I also use an external USB card and<br>
>> >>>> >>>>>>>>> my<br>
>> >>>> >>>>>>>>> DAW<br>
>> >>>> >>>>>>>>> periodically drops out :(<br>
>> >>>> >>>>>>>>><br>
>> >>>> >>>>>>>>> I haven't tried CPU pinning yet though. And perhaps I<br>
>> >>>> >>>>>>>>> should<br>
>> >>>> >>>>>>>>> try<br>
>> >>>> >>>>>>>>> Windows 7.<br>
>> >>>> >>>>>>>>><br>
>> >>>> >>>>>>>>><br>
>> >>>> >>>>>>>>> _______________________________________________<br>
>> >>>> >>>>>>>>> vfio-users mailing list<br>
>> >>>> >>>>>>>>> <a href="mailto:vfio-users@redhat.com">vfio-users@redhat.com</a><br>
>> >>>> >>>>>>>>> <a href="https://www.redhat.com/mailman/listinfo/vfio-users" rel="noreferrer" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a><br>
>> >>>> >>>>>>>>><br>
>> >>>> >>>>>>>><br>
>> >>>> >>>>>>>><br>
>> >>>> >>>>>>>> _______________________________________________<br>
>> >>>> >>>>>>>> vfio-users mailing list<br>
>> >>>> >>>>>>>> <a href="mailto:vfio-users@redhat.com">vfio-users@redhat.com</a><br>
>> >>>> >>>>>>>> <a href="https://www.redhat.com/mailman/listinfo/vfio-users" rel="noreferrer" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a><br>
>> >>>> >>>>>>>><br>
>> >>>> >>>>>>><br>
>> >>>> >>>>>>><br>
>> >>>> >>>>>>> _______________________________________________<br>
>> >>>> >>>>>>> vfio-users mailing list<br>
>> >>>> >>>>>>> <a href="mailto:vfio-users@redhat.com">vfio-users@redhat.com</a><br>
>> >>>> >>>>>>> <a href="https://www.redhat.com/mailman/listinfo/vfio-users" rel="noreferrer" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a><br>
>> >>>> >>>>>>><br>
>> >>>> >>>>><br>
>> >>>> >>><br>
>> >>>> >>><br>
>> >>>> >>><br>
>> >>>> >>> _______________________________________________<br>
>> >>>> >>> vfio-users mailing list<br>
>> >>>> >>> <a href="mailto:vfio-users@redhat.com">vfio-users@redhat.com</a><br>
>> >>>> >>> <a href="https://www.redhat.com/mailman/listinfo/vfio-users" rel="noreferrer" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a><br>
>> >>>> >>><br>
>> >>>> >>><br>
>> >>>> >>><br>
>> >>>> >>><br>
>> >>>> >>> _______________________________________________<br>
>> >>>> >>> vfio-users mailing list<br>
>> >>>> >>> <a href="mailto:vfio-users@redhat.com">vfio-users@redhat.com</a><br>
>> >>>> >>> <a href="https://www.redhat.com/mailman/listinfo/vfio-users" rel="noreferrer" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a><br>
>> >>>> >>><br>
>> >>>> >>><br>
>> >>>> >>><br>
>> >>>> >>> _______________________________________________<br>
>> >>>> >>> vfio-users mailing list<br>
>> >>>> >>> <a href="mailto:vfio-users@redhat.com">vfio-users@redhat.com</a><br>
>> >>>> >>> <a href="https://www.redhat.com/mailman/listinfo/vfio-users" rel="noreferrer" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a><br>
>> >>>> >>><br>
>> >>>> >><br>
>> >>>> >><br>
>> >>>> >><br>
>> >>>> >> _______________________________________________<br>
>> >>>> >> vfio-users mailing list<br>
>> >>>> >> <a href="mailto:vfio-users@redhat.com">vfio-users@redhat.com</a><br>
>> >>>> >> <a href="https://www.redhat.com/mailman/listinfo/vfio-users" rel="noreferrer" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a><br>
>> >>>> >><br>
>> >>>> >><br>
>> >>>> >><br>
>> >>>> >> _______________________________________________<br>
>> >>>> >> vfio-users mailing list<br>
>> >>>> >> <a href="mailto:vfio-users@redhat.com">vfio-users@redhat.com</a><br>
>> >>>> >> <a href="https://www.redhat.com/mailman/listinfo/vfio-users" rel="noreferrer" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a><br>
>> >>>> >><br>
>> >>>> ><br>
>> >>>> ><br>
>> >>>> > _______________________________________________<br>
>> >>>> > vfio-users mailing list<br>
>> >>>> > <a href="mailto:vfio-users@redhat.com">vfio-users@redhat.com</a><br>
>> >>>> > <a href="https://www.redhat.com/mailman/listinfo/vfio-users" rel="noreferrer" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a><br>
>> >>>> ><br>
>> >>><br>
>> >>><br>
>> >><br>
>> >><br>
>> >><br>
>> >> _______________________________________________<br>
>> >> vfio-users mailing list<br>
>> >> <a href="mailto:vfio-users@redhat.com">vfio-users@redhat.com</a><br>
>> >> <a href="https://www.redhat.com/mailman/listinfo/vfio-users" rel="noreferrer" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a><br>
>> >><br>
>> >><br>
>> >><br>
>> >> _______________________________________________<br>
>> >> vfio-users mailing list<br>
>> >> <a href="mailto:vfio-users@redhat.com">vfio-users@redhat.com</a><br>
>> >> <a href="https://www.redhat.com/mailman/listinfo/vfio-users" rel="noreferrer" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a><br>
>> >><br>
>> ><br>
>> ><br>
>> > _______________________________________________<br>
>> > vfio-users mailing list<br>
>> > <a href="mailto:vfio-users@redhat.com">vfio-users@redhat.com</a><br>
>> > <a href="https://www.redhat.com/mailman/listinfo/vfio-users" rel="noreferrer" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a><br>
>> ><br>
><br>
><br>
</blockquote></div>