<div dir="ltr"><div><div>Hi,<br><br></div>I'm trying to build an active/active virtualization cluster using a Ceph RBD as backing for each libvirt-managed LXC.  I know live migration for LXC isn't yet possible, but I'd like to build my infrastructure as if it were.  That is, I would like to be sure proper locking is in place for live migrations to someday take place.  In other words, I'm building things as if I were using KVM and live migration via libvirt.  <br>
<br>I've been looking at corosync, pacemaker, virtlock, sanlock, gfs2, ocfs2, glusterfs, cephfs, ceph RBD and other solutions.  I admit that I'm quite confused.  If oVirt, with its embedded GlusterFS and its planned self-hosted engine option, supported LXC, I'd use that.  However the stars have not yet aligned for that.<br>
<br>It seems that the most elegant and scalable approach may be to utilize Ceph's RBD with its native locking mechanism plus corosync and pacemaker for fencing, for a number of reasons out of scope for this email.<br>
<b><br></b></div><div><b>My question now is in regards to proper locking.  Please see the following links.  The libvirt hook looks good, but is there any expectation that this arrangement will become a patch to libvirt itself, as is suggested by the second link?</b><br>
<br><a href="http://www.wogri.at/en/linux/ceph-libvirt-locking/">http://www.wogri.at/en/linux/ceph-libvirt-locking/</a><br><br><a href="http://lists.ceph.com/pipermail/ceph-users-ceph.com/2013-August/003887.html">http://lists.ceph.com/pipermail/ceph-users-ceph.com/2013-August/003887.html</a><br>
<br></div><div>Can anyone guide me on how to theoretically build a very "lock" safe 5-node active-active KVM cluster atop Ceph RBD?  Must I use sanlock with its NFS or GFS2 with its performance bottlenecks?  Does your answer work for LXC (sans the current state of live migration)?<br>
<br></div><div>Thanks,<br>Joshua<br>-- <br><div dir="ltr">Joshua Dotson<br>Founder, Wrale Ltd</div>
</div></div>