A friend of mine recently built a fileserver from some spare stuff he had around along with a spare RHEL3 CD from his work.  He has no RHEL entitlements, so no binary updates.  (I would have encouraged him to at least use an upgradeable system, but that's neither here nor there, now.)  As for the system, it's very basic with a system hard drive, a DVD drive, PCI IDE card, and five drives dedicated to a RAID5 volume.
<br><br>He followed the software RAID and LVM how-tos, eventually building a 930+GB RAID5 volume md0.  He then used md0 as the sole PV to build a "raid_discs" VG.  This VG was split into three LVs: home, music, and pics.  Each LV was formatted EXT3 and set to mount in /etc/fstab:
<br><br>/dev/raid_discs/music  /raid/music              ext3    defaults        0 0<br>/dev/raid_discs/pictures  /raid/pictures        ext3    defaults        0 0<br>/dev/raid_discs/home  /raid/home                ext3    defaults        0 0
<br><br>This done, he proceeded to copy 260G of media to the server.  Thinking everything we living safely on a RAID5 device now, he proceeded to delete the sources.  *sigh*<br><br>Everything worked fine until he rebooted the server (cleanly, I'm told).  After the machine came up, it wouldn't mount his LVs.  The RAID device is there:
<br><br>[root@Server lvmconf]# cat /proc/mdstat <br>Personalities : [raid5] <br>read_ahead 1024 sectors<br>Event: 1                   <br>md0 : active raid5 hdh[4] hdg[3] hdf[2] hde[1] hdc[0]<br>      976793600 blocks level 5, 128k chunk, algorithm 2 [5/5] [UUUUU]
<br>      <br>unused devices: <none><br><br>From what I can tell, though, it doesn't look like LVM is seeing the RAID device as a PV anymore:<br><br>[root@Server lvmconf]# pvdisplay -vv /dev/md0<br>pvdisplay -- checking physical volume name "/dev/md0"
<br>pvdisplay -- reading data of physical volume "/dev/md0" from disk<br>pvdisplay -- no physical volume identifier on "/dev/md0"<br><br>Am I reading this correctly? <br><br>I tried to do a vgcfgrestore and got this:
<br><br>[root@Server lvmconf]# vgcfgrestore -n raid_discs -vv  /dev/md0<br>vgcfgrestore -- INFO: using backup file "/etc/lvmconf/raid_discs.conf"<br>vgcfgrestore -- locking logical volume manager<br>vgcfgrestore -- restoring volume group "raid_discs" from "/etc/lvmconf/raid_discs.conf"
<br>vgcfgrestore -- checking existence of "/etc/lvmconf/raid_discs.conf"<br>vgcfgrestore -- reading volume group data for "raid_discs" from "/etc/lvmconf/raid_discs.conf"<br>vgcfgrestore -- reading physical volume data for "raid_discs" from "/etc/lvmconf/raid_discs.conf"
<br>vgcfgrestore -- reading logical volume data for "raid_discs" from "/etc/lvmconf/raid_discs.conf"<br>vgcfgrestore -- checking volume group consistency of "raid_discs"<br>vgcfgrestore -- checking volume group consistency of "raid_discs"
<br>vgcfgrestore -- reading physical volume "/dev/md0"<br>vgcfgrestore -- ERROR "pv_read(): PV identifier invalid" reading physical volume "/dev/md0"<br><br>Is there anything that we can do to save his data?  I know that with partition tables, if you know them in advance, you can re-write them and, if you're exact, you won't lose any data.  Is it possible to do the same with pvcreate?  Could I re-init the PV, then have the VG suddenly be happy?  Suggestions?
<br><br>Would it help matters to boot off a live CD like Helix and try recovery that way?  I'm a bit hesitant to do that as I'd rather try to get things working with the tools that created the VG in the first place and I'm not sure how nicely LVM2 would play with LVM.  OTOH, since we're dealing with base RHEL3, we could also be hitting a bug that was later patched.  (After recovery, I'm getting him to change the OS ASAP.)
<br><br>Thank you so much.  I really hope he hasn't borked his pics of his kids.<br><br>pete<br>