<div dir="ltr"><span style="font-size:14px">hi digimer , Thanks your replay explanation.</span><div style="font-size:14px"><br></div><div style="font-size:14px">My use case is:</div><div style="font-size:14px"><br></div><div style="font-size:14px">One admin node and some compute nodes, All the nodes shares a storage (eg. FCSAN).</div><div style="font-size:14px">I create a vg on the shared storage, and the vg can be seen on all the nodes.</div><div style="font-size:14px">The admin node's  responsibility is to manage the logical volume it created, and the other compute node can attach these lvs to VM directly, not through admin node.</div><div style="font-size:14px">Under the scene of LVM driver of OpenStack Cinder project, The lvm volumes are attached to VMs through Cinder node via ISCSI. So I want to make sure whether I can attach lvm volumes to VMs directly.</div><div style="font-size:14px"><br></div><div style="font-size:14px">To achieve this goal, Should I use the method you mentiond before? </div><div style="font-size:14px"><br></div><div style="font-size:14px">Thanks very much!</div><div style="font-size:14px"><br></div><div class="gmail_extra"><br><div class="gmail_quote">2016-08-25 15:46 GMT+08:00  <span dir="ltr"><<a href="mailto:linux-lvm-request@redhat.com" target="_blank">linux-lvm-request@redhat.com</a>></span>:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Send linux-lvm mailing list submissions to<br>
        <a href="mailto:linux-lvm@redhat.com">linux-lvm@redhat.com</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="https://www.redhat.com/mailman/listinfo/linux-lvm" rel="noreferrer" target="_blank">https://www.redhat.com/<wbr>mailman/listinfo/linux-lvm</a><br>
or, via email, send a message with subject or body 'help' to<br>
        <a href="mailto:linux-lvm-request@redhat.com">linux-lvm-request@redhat.com</a><br>
<br>
You can reach the person managing the list at<br>
        <a href="mailto:linux-lvm-owner@redhat.com">linux-lvm-owner@redhat.com</a><br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than "Re: Contents of linux-lvm digest..."<br>
<br>
<br>
Today's Topics:<br>
<br>
   1. sata cable disconnect + hotplug after (Xen)<br>
   2. Re: lvm2 raid volumes (Xen)<br>
   3. Re: Snapshots & data security (Zdenek Kabelac)<br>
   4. lvm2 cluster aware (su liu)<br>
   5. Re: lvm2 cluster aware (Digimer)<br>
<br>
<br>
------------------------------<wbr>------------------------------<wbr>----------<br>
<br>
Message: 1<br>
Date: Tue, 09 Aug 2016 11:58:35 +0200<br>
From: Xen <<a href="mailto:list@xenhideout.nl">list@xenhideout.nl</a>><br>
To: Linux lvm <<a href="mailto:linux-lvm@redhat.com">linux-lvm@redhat.com</a>><br>
Subject: [linux-lvm] sata cable disconnect + hotplug after<br>
Message-ID: <<a href="mailto:16a575c3fb60f2579ab1687540cea01e@dds.nl">16a575c3fb60f2579ab1687540cea<wbr>01e@dds.nl</a>><br>
Content-Type: text/plain; charset=US-ASCII; format=flowed<br>
<br>
What am I supposed to do when a sata cable disconnects and reconnects as<br>
another device?<br>
<br>
I had a disk at probably /dev/sda.<br>
<br>
At a certain point the filesystem had become read-only. I realized the<br>
cable must have disconnected and after fixing it the same device was now<br>
at /dev/sdf.<br>
<br>
Now the device had gone missing from the system but it would not refind<br>
it.<br>
<br>
# pvscan<br>
   WARNING: Device for PV fEGbBn-tbIp-rL7y-m22b-1rQh-<wbr>r9i5-Qwlqz7 not<br>
found or rejected by a filter.<br>
   PV unknown device                VG xenpc1          lvm2 [600,00 GiB /<br>
158,51 GiB free]<br>
<br>
pvck clearly found it and lvmdiskscan also found it. Nothing happened<br>
until I did pvscan --cache /dev/sdf:<br>
<br>
# pvscan --cache /dev/sdf<br>
# vgscan<br>
   Reading all physical volumes.  This may take a while...<br>
   Duplicate of PV fEGbBn-tbIp-rL7y-m22b-1rQh-<wbr>r9i5-Qwlqz7 dev /dev/sdf<br>
exists on unknown device 8:0<br>
   Found volume group "xenpc1" using metadata type lvm2<br>
<br>
Now I was able to activate it again and it was no longer flagged as<br>
partial (but now it is duplicate).<br>
<br>
The unknown device 8:0 is clearly going to be /dev/sda, which is no<br>
longer there.<br>
<br>
How can I dump this reference to 8:0 or should something else be done?<br>
<br>
Oh right.... pvscan --cache without a parameter....<br>
<br>
I wonder if I can run this while the thing is still activated....<br>
<br>
I was beginning to think there'd be some hidden filter rule, but it was<br>
"just" the cache.<br>
<br>
Should this thing be automatically resolved? Is running pvscan --cache<br>
enough?<br>
<br>
<br>
<br>
------------------------------<br>
<br>
Message: 2<br>
Date: Mon, 15 Aug 2016 15:38:06 +0200<br>
From: Xen <<a href="mailto:list@xenhideout.nl">list@xenhideout.nl</a>><br>
To: <a href="mailto:linux-lvm@redhat.com">linux-lvm@redhat.com</a><br>
Subject: Re: [linux-lvm] lvm2 raid volumes<br>
Message-ID: <<a href="mailto:e2f9476f73b7ab05cc1e7a21643ed29e@dds.nl">e2f9476f73b7ab05cc1e7a21643ed<wbr>29e@dds.nl</a>><br>
Content-Type: text/plain; charset=US-ASCII; format=flowed<br>
<br>
Heinz Mauelshagen schreef op 03-08-2016 15:10:<br>
<br>
> The Cyp%Sync field tells you about the resynchronization progress,<br>
> i.e. the initial mirroring of<br>
> all data blocks in a raid1/10 or the initial calculation and storing<br>
> of parity blocks in raid4/5/6.<br>
<br>
Heinz, can I perhaps ask you here. If I can.<br>
<br>
I have put a root volume on raid 1. Maybe "of course" the second disk<br>
(LVM volumes) are not available at system boot:<br>
<br>
aug 15 14:09:19 xenpc2 kernel: device-mapper: raid: Loading target<br>
version 1.7.0<br>
aug 15 14:09:19 xenpc2 kernel: device-mapper: raid: Failed to read<br>
superblock of device at position 1<br>
aug 15 14:09:19 xenpc2 kernel: md/raid1:mdX: active with 1 out of 2<br>
mirrors<br>
aug 15 14:09:19 xenpc2 kernel: created bitmap (15 pages) for device mdX<br>
aug 15 14:09:19 xenpc2 kernel: mdX: bitmap initialized from disk: read 1<br>
pages, set 19642 of 30040 bits<br>
aug 15 14:09:19 xenpc2 kernel: EXT4-fs (dm-6): mounted filesystem with<br>
ordered data mode. Opts: (null)<br>
<br>
<br>
This could be because I am using PV directly on disk (no partition<br>
table) for *some* volumes (actually the first disk, that is booted<br>
from), however, I force a start of LVM2 service by enabling it in<br>
SystemD:<br>
<br>
aug 15 14:09:19 xenpc2 systemd[1]: Starting LVM2...<br>
<br>
This is further down the log, so LVM is actually started after the RAID<br>
is loading.<br>
<br>
At that point normally, from my experience, only the root LV is<br>
available.<br>
<br>
Then at a certain point more devices become available:<br>
<br>
aug 15 14:09:22 xenpc2 systemd[1]: Found device /dev/mapper/msata-boot.<br>
aug 15 14:09:22 xenpc2 systemd[1]: Started LVM2.<br>
<br>
aug 15 14:09:22 xenpc2 systemd[1]: Found device /dev/raid/tmp.<br>
aug 15 14:09:22 xenpc2 systemd[1]: Found device /dev/raid/swap.<br>
aug 15 14:09:22 xenpc2 systemd[1]: Found device /dev/raid/var.<br>
<br>
But just before that happens, there are some more RAID1 errors:<br>
<br>
aug 15 14:09:22 xenpc2 kernel: device-mapper: raid: Failed to read<br>
superblock of device at position 1<br>
aug 15 14:09:22 xenpc2 kernel: md/raid1:mdX: active with 1 out of 2<br>
mirrors<br>
aug 15 14:09:22 xenpc2 kernel: created bitmap (1 pages) for device mdX<br>
aug 15 14:09:22 xenpc2 kernel: mdX: bitmap initialized from disk: read 1<br>
pages, set 320 of 480 bits<br>
aug 15 14:09:22 xenpc2 kernel: device-mapper: raid: Failed to read<br>
superblock of device at position 1<br>
aug 15 14:09:22 xenpc2 kernel: md/raid1:mdX: active with 1 out of 2<br>
mirrors<br>
aug 15 14:09:22 xenpc2 kernel: created bitmap (15 pages) for device mdX<br>
aug 15 14:09:22 xenpc2 kernel: mdX: bitmap initialized from disk: read 1<br>
pages, set 19642 of 30040 bits<br>
<br>
Well small wonder if the device isn't there yet. There are no messages<br>
for it, but I will assume the mirror LVs came online at the same time as<br>
the other "raid" volume group LVs, which means the RAID errors preceded<br>
that.<br>
<br>
Hence, no secondary mirror volumes available, cannot start the raid,<br>
right.<br>
<br>
However after logging in, the Cpy%Sync behaviour seems normal:<br>
<br>
   boot     msata  rwi-aor--- 240,00m<br>
100,00<br>
   root     msata  rwi-aor---  14,67g<br>
100,00<br>
<br>
Devices are shown as:<br>
<br>
   boot msata rwi-aor--- 240,00m<br>
100,00           boot_rimage_0(0),boot_rimage_<wbr>1(0)<br>
   root msata rwi-aor---  14,67g<br>
100,00           root_rimage_0(0),root_rimage_<wbr>1(0)<br>
<br>
dmsetup table seems normal:<br>
<br>
# dmsetup table | grep msata | sort<br>
coll-msata--lv: 0 60620800 linear 8:36 2048<br>
msata-boot: 0 491520 raid raid1 3 0 region_size 1024 2 252:14 252:15 - -<br>
msata-boot_rimage_0: 0 491520 linear 8:16 4096<br>
msata-boot_rimage_1: 0 491520 linear 252:12 10240<br>
msata-boot_rimage_1-missing_0_<wbr>0: 0 491520 error<br>
msata-boot_rmeta_0: 0 8192 linear 8:16 495616<br>
msata-boot_rmeta_1: 0 8192 linear 252:12 2048<br>
msata-boot_rmeta_1-missing_0_<wbr>0: 0 8192 error<br>
msata-root: 0 30760960 raid raid1 3 0 region_size 1024 2 252:0 252:1 - -<br>
msata-root_rimage_0: 0 30760960 linear 8:16 512000<br>
msata-root_rimage_1: 0 30760960 linear 252:12 509952<br>
msata-root_rimage_1-missing_0_<wbr>0: 0 30760960 error<br>
msata-root_rmeta_0: 0 8192 linear 8:16 503808<br>
msata-root_rmeta_1: 0 8192 linear 252:12 501760<br>
msata-root_rmeta_1-missing_0_<wbr>0: 0 8192 error<br>
<br>
But actually it's not because it should reference 4 devices, not two.<br>
Apologies.<br>
<br>
It only references the volumes of the first disk (image and meta).<br>
<br>
E.g. 252:0 and 252:1 are:<br>
<br>
lrwxrwxrwx 1 root root       7 aug 15 14:09 msata-root_rmeta_0 -><br>
../dm-0<br>
lrwxrwxrwx 1 root root       7 aug 15 14:09 msata-root_rimage_0 -><br>
../dm-1<br>
<br>
Whereas the volumes from the other disk are:<br>
<br>
lrwxrwxrwx 1 root root       7 aug 15 14:09 msata-root_rmeta_1 -><br>
../dm-3<br>
lrwxrwxrwx 1 root root       7 aug 15 14:09 msata-root_rimage_1 -><br>
../dm-5<br>
<br>
If I dismount /boot, lvchange -an msata/boot, lvchange -ay msata/boot,<br>
it loads correctly:<br>
<br>
aug 15 14:56:23 xenpc2 kernel: md/raid1:mdX: active with 1 out of 2<br>
mirrors<br>
aug 15 14:56:23 xenpc2 kernel: created bitmap (1 pages) for device mdX<br>
aug 15 14:56:23 xenpc2 kernel: mdX: bitmap initialized from disk: read 1<br>
pages, set 320 of 480 bits<br>
aug 15 14:56:23 xenpc2 kernel: RAID1 conf printout:<br>
aug 15 14:56:23 xenpc2 kernel:  --- wd:1 rd:2<br>
aug 15 14:56:23 xenpc2 kernel:  disk 0, wo:0, o:1, dev:dm-15<br>
aug 15 14:56:23 xenpc2 kernel:  disk 1, wo:1, o:1, dev:dm-19<br>
aug 15 14:56:23 xenpc2 kernel: RAID1 conf printout:<br>
aug 15 14:56:23 xenpc2 kernel:  --- wd:1 rd:2<br>
aug 15 14:56:23 xenpc2 kernel:  disk 0, wo:0, o:1, dev:dm-15<br>
aug 15 14:56:23 xenpc2 kernel:  disk 1, wo:1, o:1, dev:dm-19<br>
aug 15 14:56:23 xenpc2 kernel: md: recovery of RAID array mdX<br>
aug 15 14:56:23 xenpc2 kernel: md: minimum _guaranteed_  speed: 1000<br>
KB/sec/disk.<br>
aug 15 14:56:23 xenpc2 kernel: md: using maximum available idle IO<br>
bandwidth (but not more than 200000 KB/sec) for recovery.<br>
aug 15 14:56:23 xenpc2 kernel: md: using 128k window, over a total of<br>
245760k.<br>
aug 15 14:56:23 xenpc2 systemd[1]: Starting File System Check on<br>
/dev/mapper/msata-boot...<br>
aug 15 14:56:23 xenpc2 systemd[1]: Started File System Check Daemon to<br>
report status.<br>
aug 15 14:56:23 xenpc2 systemd-fsck[6938]: /dev/mapper/msata-boot:<br>
clean, 310/61440 files, 121269/245760 blocks<br>
aug 15 14:56:23 xenpc2 systemd[1]: Started File System Check on<br>
/dev/mapper/msata-boot.<br>
aug 15 14:56:23 xenpc2 systemd[1]: Mounting /boot...<br>
aug 15 14:56:23 xenpc2 kernel: EXT4-fs (dm-20): mounting ext2 file<br>
system using the ext4 subsystem<br>
aug 15 14:56:23 xenpc2 kernel: EXT4-fs (dm-20): mounted filesystem<br>
without journal. Opts: (null)<br>
aug 15 14:56:23 xenpc2 systemd[1]: Mounted /boot.<br>
aug 15 14:56:26 xenpc2 kernel: md: mdX: recovery done.<br>
aug 15 14:56:26 xenpc2 kernel: RAID1 conf printout:<br>
aug 15 14:56:26 xenpc2 kernel:  --- wd:2 rd:2<br>
aug 15 14:56:26 xenpc2 kernel:  disk 0, wo:0, o:1, dev:dm-15<br>
aug 15 14:56:26 xenpc2 kernel:  disk 1, wo:0, o:1, dev:dm-19<br>
<br>
<br>
<br>
Maybe this whole thing is just caused by the first disk being<br>
partitionless.<br>
<br>
msata-boot: 0 491520 raid raid1 3 0 region_size 1024 2 252:14 252:15<br>
252:17 252:19<br>
<br>
<br>
I don't know how LVM is activated under SystemD. This is currently the<br>
initial startup:<br>
<br>
   dev-mapper-msata\x2droot.<wbr>device (2.474s)<br>
   init.scope<br>
   -.mount<br>
   -.slice<br>
   swap.target<br>
   dm-event.socket<br>
   system.slice<br>
   lvm2-lvmpolld.socket<br>
   systemd-udevd-kernel.socket<br>
   systemd-initctl.socket<br>
   systemd-journald-audit.socket<br>
   lvm2-lvmetad.socket<br>
   systemd-journald.socket<br>
   systemd-modules-load.service (199ms)<br>
   dev-mqueue.mount (66ms)<br>
   ufw.service (69ms)<br>
   systemd-fsckd.socket<br>
   proc-sys-fs-binfmt_misc.<wbr>automount<br>
   lvm2.service (3.237s)<br>
<br>
I have had to enable the SysV lvm2 service and replace vgchange -aay<br>
--sysinit with just vgchange -aay or it wouldn't work.<br>
<br>
lvmetad is started later, but without the manual lvm2 activation, my<br>
devices just wouldn't get loaded (on multiple systems, ie. when using a<br>
PV directly on disk to boot from).<br>
<br>
No one else boots directly from PV, so I may be the only one to ever<br>
have experienced this.<br>
<br>
<br>
<br>
But at this point, my mirrors don't work. They do work when not started<br>
as the main system. So If I boot from another disk, they work.<br>
<br>
At least I think they do.<br>
<br>
<br>
Basically all my LVM volumes are not loaded fast enough before the RAID<br>
is getting started.<br>
<br>
LVM itself gives no indication of error. lvchange --syncaction check<br>
msata/root does not produce any data. It seems it doesn't notice that<br>
the RAID hasn't been started.<br>
<br>
Again, there is zero output from commands such as lvs -a -o+lv_all and<br>
yet this is the output from dmsetup table:<br>
<br>
msata-root: 0 30760960 raid raid1 3 0 region_size 1024 2 252:0 252:1 - -<br>
<br>
<br>
So my first question is really: can I restore the RAID array while the<br>
system is running? E.g. while root is mounted?<br>
<br>
I haven't explored the initramfs yet to see why my LVM volumes are not<br>
getting loaded.<br>
<br>
Regards.<br>
<br>
<br>
<br>
------------------------------<br>
<br>
Message: 3<br>
Date: Tue, 16 Aug 2016 11:44:23 +0200<br>
From: Zdenek Kabelac <<a href="mailto:zdenek.kabelac@gmail.com">zdenek.kabelac@gmail.com</a>><br>
To: LVM general discussion and development <<a href="mailto:linux-lvm@redhat.com">linux-lvm@redhat.com</a>>,<br>
        <a href="mailto:stuart@gathman.org">stuart@gathman.org</a><br>
Subject: Re: [linux-lvm] Snapshots & data security<br>
Message-ID: <<a href="mailto:56821cec-70f8-086a-7e5b-6db8f0a9b780@gmail.com">56821cec-70f8-086a-7e5b-<wbr>6db8f0a9b780@gmail.com</a>><br>
Content-Type: text/plain; charset=windows-1252; format=flowed<br>
<br>
Dne 27.7.2016 v 21:17 Stuart Gathman napsal(a):<br>
> On 07/19/2016 11:28 AM, Scott Sullivan wrote:<br>
>><br>
>> Could someone please clarify if there is a legitimate reason to worry<br>
>> about data security of a old (removed) LVM snapshot?<br>
>><br>
>> For example, when you lvremove a LVM snapshot, is it possible for data<br>
>> to be recovered if you create another LVM and it happens to go into<br>
>> the same area as the old snapshot we lvremoved?<br>
>><br>
>> If this helps clarify, do we have to worry about security scrubbing a<br>
>> LVM snapshot for data security ?<br>
>><br>
> Another idea: if your VG is on SSD, and properly aligned, then DISCARD<br>
> on the new LV will effectively zero it as far as any guest VMs are<br>
> concerned.  (The data is still on the flash until erased by the<br>
> firmware, of course.)  If VG and PE size do not align with the SSD erase<br>
> block, then you can still zero the "edges" of the new LV, which is much<br>
> faster (and less wear on the SSD) than zeroing the whole thing.  You<br>
> could always read-verify that the data is actually all zero.<br>
<br>
Yes - as already suggested -  once you create a new LV -<br>
you can  'blkdicard /dev/vg/lv'<br>
<br>
Note - SSD may not always ensure blocks are zeroed - they could just<br>
move trimmed block into reuse list with undefined content.<br>
<br>
Anyway - lvm2 is not tool for data protection and it's upto system admin<br>
to ensure there are no data leaks.<br>
<br>
So pick the solution which fits best your needs - lvm2 provides all the<br>
tooling for it.<br>
<br>
Regards<br>
<br>
Zdenek<br>
<br>
<br>
<br>
------------------------------<br>
<br>
Message: 4<br>
Date: Thu, 25 Aug 2016 09:50:24 +0800<br>
From: su liu <<a href="mailto:liusu8788@gmail.com">liusu8788@gmail.com</a>><br>
To: linux-lvm <<a href="mailto:linux-lvm@redhat.com">linux-lvm@redhat.com</a>><br>
Subject: [linux-lvm] lvm2 cluster aware<br>
Message-ID:<br>
        <<a href="mailto:CAN2gjWSEzL%2BM45UGFEkEA_i5bgNpKLXTQ%2BDAMPJjJJvBBvaTKQ@mail.gmail.com">CAN2gjWSEzL+M45UGFEkEA_<wbr>i5bgNpKLXTQ+DAMPJjJJvBBvaTKQ@<wbr>mail.gmail.com</a>><br>
Content-Type: text/plain; charset="utf-8"<br>
<br>
I have a question about lvm2 cluster, The scene is that I try to imitate<br>
FCSAN by mapping a rbd volume to two compute node, Then I using the rbd<br>
volume to  create a PV and VG.I stoped the lvmetad daemon on the compute<br>
nodes. Then I find that when I operating the VG on one compute node, the<br>
changes can also be aware on another compute nodes.<br>
<br>
But this docment(<a href="http://www.tldp.org/HOWTO/LVM-HOWTO/sharinglvm1.html" rel="noreferrer" target="_blank">http://www.tldp.org/<wbr>HOWTO/LVM-HOWTO/sharinglvm1.<wbr>html</a>? says<br>
that "*LVM is not cluster aware".*<br>
<br>
My question is that can I use the method to achieve the case that I create<br>
or delete lv on one node whlie other compute node can using the lvs?<br>
<br>
Can anybody explain this?<br>
<br>
thx very much!<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="https://www.redhat.com/archives/linux-lvm/attachments/20160825/e6fb6630/attachment.html" rel="noreferrer" target="_blank">https://www.redhat.com/<wbr>archives/linux-lvm/<wbr>attachments/20160825/e6fb6630/<wbr>attachment.html</a>><br>
<br>
------------------------------<br>
<br>
Message: 5<br>
Date: Thu, 25 Aug 2016 03:37:08 -0400<br>
From: Digimer <<a href="mailto:lists@alteeve.ca">lists@alteeve.ca</a>><br>
To: LVM general discussion and development <<a href="mailto:linux-lvm@redhat.com">linux-lvm@redhat.com</a>><br>
Subject: Re: [linux-lvm] lvm2 cluster aware<br>
Message-ID: <<a href="mailto:a0c7bedf-23d1-26c5-3853-0bd36f528185@alteeve.ca">a0c7bedf-23d1-26c5-3853-<wbr>0bd36f528185@alteeve.ca</a>><br>
Content-Type: text/plain; charset=UTF-8<br>
<br>
On 24/08/16 09:50 PM, su liu wrote:<br>
> I have a question about lvm2 cluster, The scene is that I try to imitate<br>
> FCSAN by mapping a rbd volume to two compute node, Then I using the rbd<br>
> volume to  create a PV and VG.I stoped the lvmetad daemon on the compute<br>
> nodes. Then I find that when I operating the VG on one compute node, the<br>
> changes can also be aware on another compute nodes.<br>
><br>
> But this docment(<a href="http://www.tldp.org/HOWTO/LVM-HOWTO" rel="noreferrer" target="_blank">http://www.tldp.org/<wbr>HOWTO/LVM-HOWTO</a><br>
> /sharinglvm1.html? says that "*LVM is not cluster aware".*<br>
><br>
> My question is that can I use the method to achieve the case that I<br>
> create or delete lv on one node whlie other compute node can using the lvs?<br>
><br>
> Can anybody explain this?<br>
><br>
> thx very much!<br>
<br>
You can use DLM (distributed lock manager) to provide cluster locking to<br>
LVM (locking_type = 3 via clvmd). This requires a cluster though, which<br>
you can get with corosync + pacemaker (and use stonith!).<br>
<br>
Further details/advice requires more understanding of your environment<br>
and use-case. Feel free to pop over to Clusterlabs[1], as many of us do<br>
this setup regularly. I use clustered LVM in all our HA setups and have<br>
done so successfully for years.<br>
<br>
digimer<br>
<br>
1. <a href="http://clusterlabs.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://clusterlabs.org/<wbr>mailman/listinfo/users</a> - freenode #clusterlabs<br>
<br>
--<br>
Digimer<br>
Papers and Projects: <a href="https://alteeve.ca/w/" rel="noreferrer" target="_blank">https://alteeve.ca/w/</a><br>
What if the cure for cancer is trapped in the mind of a person without<br>
access to education?<br>
<br>
<br>
<br>
------------------------------<br>
<br>
______________________________<wbr>_________________<br>
linux-lvm mailing list<br>
<a href="mailto:linux-lvm@redhat.com">linux-lvm@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/linux-lvm" rel="noreferrer" target="_blank">https://www.redhat.com/<wbr>mailman/listinfo/linux-lvm</a><br>
<br>
End of linux-lvm Digest, Vol 150, Issue 2<br>
******************************<wbr>***********<br>
</blockquote></div><br></div></div>