<div dir="ltr"><div>here's some more error log from centos guest:</div><div><br></div><div>Mar  7 05:38:07 localhost kernel: NVRM: loading NVIDIA UNIX x86_64 Kernel Module  375.39  Tue Jan 31 20:47:00 PST 2017 (using threaded interrupts)</div><div>Mar  7 05:38:08 localhost kernel: nvidia-modeset: Loading NVIDIA Kernel Mode Setting Driver for UNIX platforms  375.39  Tue Jan 31 19:41:48 PST 2017</div><div>Mar  7 05:39:27 localhost kernel: NVRM: RmInitAdapter failed! (0x24:0x51:1060)</div><div>Mar  7 05:39:27 localhost kernel: NVRM: rm_init_adapter failed for device bearing minor number 0</div><div>Mar  7 05:43:40 localhost kernel: NVRM: RmInitAdapter failed! (0x24:0x51:1060)</div><div>Mar  7 05:43:40 localhost kernel: NVRM: rm_init_adapter failed for device bearing minor number 0</div><div>Mar  8 05:07:47 localhost kernel: nvidia: module license 'NVIDIA' taints kernel.</div><div>Mar  8 05:07:47 localhost kernel: NVRM: loading NVIDIA UNIX x86_64 Kernel Module </div></div><div class="gmail_extra"><br><div class="gmail_quote">2017-03-08 14:31 GMT+08:00 rhett rhett <span dir="ltr"><<a href="mailto:rhett.kernel@gmail.com" target="_blank">rhett.kernel@gmail.com</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">i have two guest , a windows 2008 server and a centos 7.2 . in windows, the device manager said the gpu can't start ,error code 10.<div>in centos, when i run nvidia-smi,  it said no device found.</div><div><br></div><div>no specil vm configurations,  whit the same config, i can use gpu successfully in my two gpu server. the biggest different is , that server is no pcie switcher.</div></div><div class="HOEnZb"><div class="h5"><div class="gmail_extra"><br><div class="gmail_quote">2017-03-08 11:55 GMT+08:00 Alex Williamson <span dir="ltr"><<a href="mailto:alex.williamson@redhat.com" target="_blank">alex.williamson@redhat.com</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span>On Wed, 8 Mar 2017 11:26:17 +0800<br>
rhett rhett <<a href="mailto:rhett.kernel@gmail.com" target="_blank">rhett.kernel@gmail.com</a>> wrote:<br>
<br>
> two gpus share the same irq , i found the reason. because the msi be<br>
> disabled later , so irq 140 is being reused.<br>
><br>
> but i don't know why somebady calls vfio_pci_ioctl to disable the msi.<br>
<br>
</span>vfio just does what the guest requests, but you're really providing<br>
hardly any more information than when you asked off list.  My wild<br>
guess, is that maybe you're running a Windows guest and not configuring<br>
the VM for a vCPU type where Windows supports MSI.  For more<br>
assistance, please provide basic information, like the QEMU command<br>
line or VM XML, also the PCI information from the host (sudo lspci<br>
-vvv), and of course any error codes in the guest or an actual<br>
description of how the device doesn't work in the guest.  Thanks,<br>
<br>
Alex<br>
<div class="m_-4809128116974904058HOEnZb"><div class="m_-4809128116974904058h5"><br>
<br>
> 2017-03-08 10:55 GMT+08:00 rhett rhett <<a href="mailto:rhett.kernel@gmail.com" target="_blank">rhett.kernel@gmail.com</a>>:<br>
><br>
> > i have a question about vfio , here is my description.<br>
> ><br>
> > i have 8 gpus in my server machine ,  but they are all behind a pcie<br>
> > bridge.  when i make a vfio passthrough , i can't use the gpus in my guest<br>
> > os.<br>
> > dmesg shows the following message<br>
> ><br>
> > [  662.208072] vfio-pci 0000:87:00.0: irq 140 for MSI/MSI-X<br>
> > [  725.761623] vfio-pci 0000:04:00.0: irq 140 for MSI/MSI-X<br>
> ><br>
> > i started two vm , one use 87 and another use 04,  dmesg shows that they<br>
> > share the same irq 140 . is this normal ?<br>
> ><br>
> > i also saw the iommu groups, each gpu stays in a separate group, and with<br>
> > no other device in group. so this means ACS works correctly ?<br>
> ><br>
> > hope to get your helps !<br>
> ><br>
<br>
</div></div></blockquote></div><br></div>
</div></div></blockquote></div><br></div>