Hi, <br><br>thanks for your answer.<br><br><div class="gmail_quote">On 20 July 2011 09:06,  <span dir="ltr"><<a href="mailto:Ralph.Grothe@itdz-berlin.de">Ralph.Grothe@itdz-berlin.de</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
Hi Marc,<br>
<br>
<br>
though Digimer's RHCS tutorial is an excellent introducion to the<br>
RHCS cluster with a thourough step by step reference to setting<br>
up a Xen cluster, and I'd highly recommend you read it, you<br>
probably also would like to have look at these articles in the<br>
cluster wiki which focus a little more condensed on your<br>
questions.<br>
<br>
Here is described how to set up so called HA-LVM which avoids the<br>
clmvd overhead and is for settings like yours where you only<br>
require active/passive VG activation (i.e. a shared storage VG is<br>
only activated on a single cluster node at any time).<br>
This is achieved by tagging of the affected VGs/LVs.<br>
<br>
<a href="https://fedorahosted.org/cluster/wiki/LVMFailover" target="_blank">https://fedorahosted.org/cluster/wiki/LVMFailover</a><br>
<br>
Unfortunately, this article lacks mentioning of the required<br>
locking_type setting in lvm.conf.<br>
<br>
But if you have access to RHN this article on HA-LVM does, and it<br>
also outlines both methods, i.e. the so called "preferred clvmd"<br>
method and the so called "original" (or what I'd call "tagging")<br>
method which doesn't require clvmd:<br>
<br>
<a href="https://access.redhat.com/kb/docs/DOC-3068" target="_blank">https://access.redhat.com/kb/docs/DOC-3068</a><br>
<br>
<br>
Should you on the other hand require active/active VGs (i.e.<br>
simultaneous activation of the same shared VG on more than one<br>
cluster node), which I consider not a requirement for a KVM<br>
cluster (but I lack any experience in this field) the recommended<br>
procedure is described here:<br>
<br>
<a href="https://access.redhat.com/kb/docs/DOC-17651" target="_blank">https://access.redhat.com/kb/docs/DOC-17651</a><br></blockquote><div><br>Great links, this is what we were looking for. We'll try this before testing GFS2 because we are preferably want to work directly over Logical Volumes.<br>
<br>Thanks a lot for your reply,<br>Marc<br><br> </div><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
<br>
<br>
Important aside, after you've edited the lvm.conf you are<br>
required to make a new initial ramdisk (or at least touch the<br>
mtime of the current initrd) or cluster services won't start on<br>
that node (watch entries in messages or whereever syslogd logs<br>
clulog stuff to).<br>
<br>
<br>
<br>
In this article you may find something treating KVM VMs'<br>
migration.<br>
<br>
<a href="https://fedorahosted.org/cluster/wiki/KvmMigration" target="_blank">https://fedorahosted.org/cluster/wiki/KvmMigration</a> </blockquote><div><br><br><br> </div><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">

<br>
<br>
Regards<br>
Ralph<br>
(an RHCS newbie himself)<br>
________________________________<br>
<br>
        From: <a href="mailto:linux-cluster-bounces@redhat.com">linux-cluster-bounces@redhat.com</a><br>
[mailto:<a href="mailto:linux-cluster-bounces@redhat.com">linux-cluster-bounces@redhat.com</a>] On Behalf Of Marc<br>
Caubet<br>
        Sent: Tuesday, July 19, 2011 4:19 PM<br>
        To: <a href="mailto:linux-cluster@redhat.com">linux-cluster@redhat.com</a><br>
        Subject: [Linux-cluster] Linux Cluster + KVM + LVM2<br>
<div><div></div><div class="h5"><br>
<br>
        Hi,<br>
<br>
        we are testing RedHat Cluster to build a KVM<br>
virtualization infrastructure. This is the first time we use the<br>
Linux Cluster so we are a little bit lost. Hope someone can help.<br>
<br>
        Actually we have 2 hypervisors connected via Fiber<br>
Channel to a shared storage (both servers see the same 15TB<br>
device /dev/mapper/mpathb).<br>
<br>
        Our idea is a shared storage to hold KVM virtual machines<br>
by using LVM2. Both server should be able to run Virtual Machines<br>
from the same storage, but we should be able to migrate or start<br>
virtual machines on the other server node on crash.<br>
<br>
        So the plan is:<br>
<br>
        - Virtual Machine image = Logical Volume<br>
        - CLVM2 cluster: only one server node at the same time<br>
will be able to manage the volume group-<br>
        - KVM Virtual Machine High Availability. Machines will<br>
run on one server node. If for some reason the server node<br>
crashes, the second will start / migrate the virtual machine.<br>
<br>
        Basically we woul like to know:<br>
<br>
        - How can we create a cluster for the LVM2 shared storage<br>
(when we create it, it does not work since both server nodes have<br>
the VG as Active)<br>
        - How can we create a cluster service for a virtual<br>
machine (we guess it has to be done 1 by 1)<br>
        - Since we have 2 server nodes, how to increase the<br>
number of votes for quorum (qdisk over a heartbeat logical volume<br>
partition?)<br>
<br>
        Thanks and best regards,<br>
        --<br>
        Marc Caubet Serrabou<br>
        PIC (Port d'Informació Científica)<br>
        Campus UAB, Edificio D<br>
        E-08193 Bellaterra, Barcelona<br>
        Tel: +34 93 581 33 22<br>
        Fax: +34 93 581 41 10<br>
        <a href="http://www.pic.es" target="_blank">http://www.pic.es</a><br>
        Avis - Aviso - Legal Notice:<br>
<a href="http://www.ifae.es/legal.html" target="_blank">http://www.ifae.es/legal.html</a><br>
<br>
<br>
<br>
</div></div><font color="#888888">--<br>
Linux-cluster mailing list<br>
<a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
</font></blockquote></div><br><br clear="all"><br>-- <br>Marc Caubet Serrabou<br>PIC (Port d'Informació Científica)<br>Campus UAB, Edificio D<br>E-08193 Bellaterra, Barcelona<br>Tel: +34 93 581 33 22<br>Fax: +34 93 581 41 10<br>
<a href="http://www.pic.es" target="_blank">http://www.pic.es</a><br>Avis - Aviso - Legal Notice: <a href="http://www.ifae.es/legal.html" target="_blank">http://www.ifae.es/legal.html</a><br>