<div dir="ltr">Hi All, <div><br></div><div>I am working on NVMe over fabric and want to experiment the Multipathing support for the same.</div><div><br></div><div>Setup Info:</div><div>RHEL 7.2 with Kernel 4.9.3</div><div><br></div><div><br></div><div><div>[root@localhost ~]# nvme list</div><div>Node             SN                   Model                                           Namespace Usage                      Format           FW Rev</div><div>---------------- -------------------- ---------------------------------------- --------- -------------------------- ---------------- --------</div><div>/dev/nvme0n1     30501b622ed15184     Linux                                    10        268.44  GB / 268.44  GB    512   B +  0 B   4.9.3</div><div>/dev/nvme1n1     ef730272d9be107c      Linux                                    10        268.44  GB / 268.44  GB    512   B +  0 B   4.9.3</div></div><div><br></div><div><div><br></div><div>[root@localhost ~]# ps ax | grep multipath</div><div>1272 ?        SLl    0:00 /sbin/multipathd</div></div><div><br></div><div><br></div><div>I have connected my Initiator to both the ports of Ethernet Adapter(Target) to get 2 IO Paths, from the above data "/dev/nvme0n1" is path 1 and "/dev/nvme1n1" is path 2 for the same namespace.</div><div><br></div><div>Note: I am using Null Block device on the Target Side.</div><div><br></div><div>But still the multipath is showing an error ie no path to Host for All the NVMe Drives mapped on the Initiator. Does multipathd supports NVMe over Fabric ??</div><div>Or what I am missing from configuration side ??</div><div><br></div><div>Thanks in advance!!</div><div><br></div><div><br></div><div>BR~</div><div>Ankur</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div></div>