<html><head><style>body{font-family:Helvetica,Arial;font-size:13px}</style></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;"><div id="bloop_customfont" style="font-family:Helvetica,Arial;font-size:13px; color: rgba(0,0,0,1.0); margin: 0px; line-height: auto;">I once put the ZFS workload on a dedicated Debian VM that I passthrough my IBM M1015 into. Worked very well although I had this message about the controller’s BIOS at first and then I had to pass the rom file on the QEMU command line. The Debian VM could see all my disks just as on my native (opening Disk Utility resulting the same). I wouldn’t recommend passing through the onboard SATA controller to a VM, unless the motherboard has additional SATA controller like Marvell or ASmedia such that I can put the Hypervisor OS on the Intel/AMD SATA controller and Marvel/ASmedia SATA controller passed through to a VM.</div> <br> <div id="bloop_sign_1442300728695869952" class="bloop_sign"><font face="helvetica, arial">-- </font><br><span style="color: rgb(2, 1, 3); " data-mce-style="orphans: 2; text-align: -webkit-auto; widows: 2; background-color: #ffffff; color: #020103; font-family: 'Times New Roman', serif;"><font face="Calibri"><b>Okky Hendriansyah</b></font></span><div data-mce-style="font-family: Helvetica, Arial; font-size: 13px; orphans: 2; text-align: -webkit-auto; widows: 2; background-color: #ffffff;"><div data-mce-style="font-family: Helvetica; font-size: 12px;"><font face="Times New Roman"><span style="font-size: 12px;"></span></font></div></div></div> <br><p class="airmail_on" style="color:#000;">On September 15, 2015 at 14:01:29, francesco dicarlo (<a href="mailto:evilsephiroth@gmail.com">evilsephiroth@gmail.com</a>) wrote:</p> <blockquote type="cite" class="clean_bq"><span><div><div></div><div>



<title></title>


<div dir="ltr">Honestly, I would go the other way. Passing sata can
be a nightmare while pci passthrough for non-vga card has always
worked for me. Currently passing a dvb-S pci express card
 (DVBSky S952 dual dvb-s tuner) to an ubuntu vm with VDR
(Video Disk Recorder) without problem.</div>
<div class="gmail_extra"><br>
<div class="gmail_quote">2015-09-15 6:46 GMT+02:00 Jouner Journer
<span dir="ltr"><<a href="mailto:journerforums@gmail.com" target="_blank">journerforums@gmail.com</a>></span>:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Thanks for the info.
<div>Are you running zfs in the hypervisor or in a vm?</div>
<div>Using zfs for root partition?</div>
<div><br></div>
<div>I was planning on using onboard sata for zfs.  I suppose
passing that controller to a vm would be problematic
<div>
<div class="h5"><br>
<br>
On Tuesday, September 15, 2015, <<a href="mailto:globalgorrilla@fastmail.fm" target="_blank">globalgorrilla@fastmail.fm</a>> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Just for reference it's a Quadro K2200 (not a Quadro 2000) I have.
I've also used both a R9 290 and R9 260X equally well. Nothing
newer than that.<br>
<br>
On 14 Sep 2015, at 12:58, <a>globalgorrilla@fastmail.fm</a>
wrote:<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">I'm
running ZFSoL on 4.1.6 and using an R9 290 and Quadro 2000.<br>
<br>
Both cards run well (both reset and are fully supported in the VM
with HyperV extensions).<br>
<br>
ZFS is memory hungry and I could use more than 32 GB RAM.<br>
<br>
ZFSoL as of a couple days supports Linux 4.2 but my QEMU/OVMF VMs
don't work with 4.2. I've heard some here say it might be
OVMF.<br>
<br>
My biggest issue once I figured out the quirks for my MB has been
that of IRQ sharing on my Z97 board (Z97-WS).<br>
<br>
The Quadro especially does not like to share an IRQ (with any other
device). The Radeons seem less drastically affected but some
combinations of Radeons don't work with shared IRQs. That seems to
be something with the cards and not specific to vfio or Linux. ASUS
documents their IRQ combinations but in reality once you disable
some onboard devices it's a crapshoot as to what IRQs get assigned.
Your board's manual doesn't mention IRQ assignments and I don't
have an LGA-2011 board so I don't know what you might expect.<br>
<br>
I'd stick with the 290 over the newer Radeons as the reset
mechanisms are pretty hacky and custom to the card and I'm not sure
what support there is for beyond the 290(X).<br>
<br>
Finally, I am using a Intel 750 and a SuperMicro AOC-SLG3-2E4. That
is an NVME drive and PLX U.2 switch/connector is it's working fine
with ZFS. I'd go with that over any SATA based controller/drive.
The interrupt overhead is much lower. It does take a slot (and IRQ)
though. My board with a PLX switch helps, leaving just the IRQ
whack-a-mole headache.<br>
<br>
On 14 Sep 2015, at 8:46, Jouner Journer wrote:<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi
Everyone,<br>
<br>
I'm looking to build a box which can run ZFS on Linux in
hypervisor, misc<br>
linux VMs, as well as a Windows vm for gaming.<br>
<br>
Is anyone doing video passthrough as well as running ZFSoL? 
I've read ZFS<br>
requires specific kernel versions in Arch and am wondering if I'll
run into<br>
compatibility issues.<br>
<br>
Also, this is the hardware I've selected... are there any blatant
problems<br>
that stick out?  I've been toying with the idea of different
processor<br>
(less cores, more speed), but figured more cores is better... 
how about<br>
Radeon R9 390X... is it too new to be tested/confirmed?<br>
<br>
Given that it is xeon processor and motherboard supports
VT-d/VT-x,<br>
motherboard and video card are uefi I'm hoping I will not run into
too many<br>
issues with passthrough... at least hardware limited issues
;)<br>
<br>
ASRock EPC612D8A-TB SSI ATX Server Motherboard Socket LGA 2011
R3<br>
Intel Xeon E5-2630 v3 Haswell-EP 2.4 GHz LGA 2011-3 85W
BX80644E52630V3<br>
Server Processor<br>
SAPPHIRE Radeon R9 390X 100381OCL 8GB 512-Bit GDDR5 PCI Express 3.0
2.2<br>
Slot, ATX Tri-X OC Version (UEFI) Video Card<br>
<br>
SeaSonic Platinum-1000 1000W PSU<br>
Intel 535 Series SSDSC2BW180H601 2.5" 180GB SATA III MLC SSD<br>
Intel 535 Series SSDSCKJW360H601 M.2 360GB SATA III MLC SSD<br>
Kingston 64GB (4 x 16GB) 288-Pin DDR4 SDRAM ECC Registered DDR4
2133 (PC4<br>
17000) Server Memory Model KVR21R15D4K4/64<br>
<br>
<br>
Thanks in advance!<br>
_______________________________________________<br>
vfio-users mailing list<br>
<a>vfio-users@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/vfio-users" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a><br>
</blockquote>
<br>
_______________________________________________<br>
vfio-users mailing list<br>
<a>vfio-users@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/vfio-users" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a><br>
</blockquote>
</blockquote>
</div>
</div>
</div>
<br>
_______________________________________________<br>
vfio-users mailing list<br>
<a href="mailto:vfio-users@redhat.com">vfio-users@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/vfio-users" rel="noreferrer" target="_blank">https://www.redhat.com/mailman/listinfo/vfio-users</a><br>

<br></blockquote>
</div>
<br></div>


_______________________________________________
<br>vfio-users mailing list
<br>vfio-users@redhat.com
<br>https://www.redhat.com/mailman/listinfo/vfio-users
<br></div></div></span></blockquote></body></html>