<div>Well,</div>
<div> </div>
<div>Pointless, I'm not sure as you take advantage of having all the other nodes in the cluster updated if a LVM metadata is modified by the node holding the VG.</div>
<div> </div>
<div>Second point, HA-LVM aka hosttags has, IMHO, a security problem as anyone could modify the hosttag on a VG without any problem (no locking mechanisms as CLVM).</div>
<div> </div>
<div>I have nothing against Clustered FS, but in my specific case, I have to host serveral Sybase Dataservers on some clusters, and the only acceptable option for my DBA's is to use raw devices.<br> </div>
<div>I never meant to combine HA-LVM and CLVM, I consider them mutualy exclusive.</div>
<div> </div>
<div>Regards<br> </div>
<div><span class="gmail_quote">2009/7/21, Christine Caulfield <<a href="mailto:ccaulfie@redhat.com">ccaulfie@redhat.com</a>>:</span>
<blockquote class="gmail_quote" style="PADDING-LEFT: 1ex; MARGIN: 0px 0px 0px 0.8ex; BORDER-LEFT: #ccc 1px solid">It seems a little pointless to integrate clvmd with a failover system. They're almost totally different ways of running a cluster. clvmd assumes a symmetrical cluster (as you've found out) and is designed so that the LVs are available on all nodes for a cluster filesystem. Trying to make that sort of system work for a failover installation is always going to be awkward, it's not what it was designed for.<br>
<br>That, in part I think, is why HA-LVM checks for a clustered VGs and declines to manage them. A resource should be controlled by one manager, not two, it's just asking for confusion.<br><br>Basically you either use clvmd or HA-LVM; not both together.<br>
<br>If you really want to write a resource manager to use clvmd then feel free, I don't have any references but others might. It's not an area I have ever had to go into.<br><br>Good luck ;-)<br><br>Chrissie<span class="q"><br>
<br><br><br>On 07/21/2009 03:40 PM, brem belguebli wrote:<br></span>
<blockquote class="gmail_quote" style="PADDING-LEFT: 1ex; MARGIN: 0px 0px 0px 0.8ex; BORDER-LEFT: #ccc 1px solid">Hi,<span class="q"><br>That's what I 'm trying to do.<br>If you mean lvm.sh, well, I've been playing with it, but it does some<br>
"sanity" checks that are wierd<br><br></span>  1. It expects HA LVM to be setup (why such check if we want to use CLVM).<br>  2. it exits if it finds a CLVM VG  (kind of funny !)<br>  3. it exits if the lvm.conf is newer than /boot/*.img (about this<span class="q"><br>
     one, we tend to prevent the cluster from automatically starting ...)<br><br>I was looking to find some doc on how to write my own resources, ie CLVM<br>resource that checks if the vg is clustered, if so by which node is it<br>
exclusively held, and if the node is down to activate exclusively the VG.<br>If you have some good links to provide me, that'll be great.<br>Thanks<br><br><br>2009/7/21, Christine Caulfield <<a onclick="return top.js.OpenExtLink(window,event,this)" href="mailto:ccaulfie@redhat.com" target="_blank">ccaulfie@redhat.com</a><br>
</span><mailto:<a onclick="return top.js.OpenExtLink(window,event,this)" href="mailto:ccaulfie@redhat.com" target="_blank">ccaulfie@redhat.com</a>>>:<span class="q"><br><br>   On 07/21/2009 01:11 PM, brem belguebli wrote:<br>
<br>       Hi,<br>       When creating the VG by default clustered, you implicitely<br>       assume that<br>       it will be used with a clustered FS on top of it (gfs, ocfs, etc...)<br>       that will handle the active/active mode.<br>
       As I do not intend to use GFS in this particular case, but ext3<br>       and raw<br>       devices, I need to make sure the vg is exclusively activated on one<br>       node, preventing the other nodes to access it unless it is the<br>
       failover<br>       procedure (node holding the VG crashed) and then re activate it<br>       exclusively on the failover node.<br>       Thanks<br><br><br><br>   In that case you probably ought to be using rgmanager to do the<br>
   failover for you. It has a script for doing exactly this :-)<br><br>   Chrissie<br><br><br>   --<br>   Linux-cluster mailing list<br></span>   <a onclick="return top.js.OpenExtLink(window,event,this)" href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a> <mailto:<a onclick="return top.js.OpenExtLink(window,event,this)" href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a>><span class="q"><br>
   <a onclick="return top.js.OpenExtLink(window,event,this)" href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br><br><br><br></span>------------------------------------------------------------------------<span class="q"><br>
<br>--<br>Linux-cluster mailing list<br><a onclick="return top.js.OpenExtLink(window,event,this)" href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br><a onclick="return top.js.OpenExtLink(window,event,this)" href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br>
</span></blockquote>
<div><span class="e" id="q_1229dcf8d010df3d_13"><br>--<br>Linux-cluster mailing list<br><a onclick="return top.js.OpenExtLink(window,event,this)" href="mailto:Linux-cluster@redhat.com" target="_blank">Linux-cluster@redhat.com</a><br>
<a onclick="return top.js.OpenExtLink(window,event,this)" href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a><br></span></div></blockquote>
</div><br>