<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40">

<head>
<meta http-equiv=Content-Type content="text/html; charset=iso-8859-1">
<meta name=Generator content="Microsoft Word 12 (filtered medium)">
<style>
<!--
 /* Font Definitions */
 @font-face
        {font-family:Wingdings;
        panose-1:5 0 0 0 0 0 0 0 0 0;}
@font-face
        {font-family:Wingdings;
        panose-1:5 0 0 0 0 0 0 0 0 0;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
 /* Style Definitions */
 p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0cm;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri","sans-serif";}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:purple;
        text-decoration:underline;}
p.MsoListParagraph, li.MsoListParagraph, div.MsoListParagraph
        {mso-style-priority:34;
        margin-top:0cm;
        margin-right:0cm;
        margin-bottom:0cm;
        margin-left:36.0pt;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri","sans-serif";}
span.E-MailFormatvorlage17
        {mso-style-type:personal-compose;
        font-family:"Calibri","sans-serif";
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;}
@page Section1
        {size:612.0pt 792.0pt;
        margin:70.85pt 70.85pt 2.0cm 70.85pt;}
div.Section1
        {page:Section1;}
 /* List Definitions */
 @list l0
        {mso-list-id:27531752;
        mso-list-type:hybrid;
        mso-list-template-ids:1003547708 109878392 67567619 67567621 67567617 67567619 67567621 67567617 67567619 67567621;}
@list l0:level1
        {mso-level-start-at:11;
        mso-level-number-format:bullet;
        mso-level-text:-;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-18.0pt;
        font-family:"Calibri","sans-serif";
        mso-fareast-font-family:Calibri;
        mso-bidi-font-family:"Times New Roman";}
ol
        {margin-bottom:0cm;}
ul
        {margin-bottom:0cm;}
-->
</style>
<!--[if gte mso 9]><xml>
 <o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
 <o:shapelayout v:ext="edit">
  <o:idmap v:ext="edit" data="1" />
 </o:shapelayout></xml><![endif]-->
</head>

<body lang=DE link=blue vlink=purple>

<div class=Section1>

<p class=MsoNormal><span lang=EN-US>Hello,<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>This is our setup: We have 3 Linux servers
(2.6.18 Centos 5), clustered, with a clvmd running one “big” volume
group (15 SCSI disks a 69,9 GB).<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>After we got an hardware I/O error on one
disk out gfs filesystem began to loop. <o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>So we stopped all services and we
determined the corrupted disk (/dev/sdh) and my intention was to do the
following:<o:p></o:p></span></p>

<p class=MsoListParagraph style='text-indent:-18.0pt;mso-list:l0 level1 lfo1'><![if !supportLists]><span
lang=EN-US><span style='mso-list:Ignore'>-<span style='font:7.0pt "Times New Roman"'>         
</span></span></span><![endif]><span lang=EN-US>pvmove /dev/sdh<o:p></o:p></span></p>

<p class=MsoListParagraph style='text-indent:-18.0pt;mso-list:l0 level1 lfo1'><![if !supportLists]><span
lang=EN-US><span style='mso-list:Ignore'>-<span style='font:7.0pt "Times New Roman"'>         
</span></span></span><![endif]><span lang=EN-US>vgreduce my_volumegroup
/dev/sdh<o:p></o:p></span></p>

<p class=MsoListParagraph style='text-indent:-18.0pt;mso-list:l0 level1 lfo1'><![if !supportLists]><span
lang=EN-US><span style='mso-list:Ignore'>-<span style='font:7.0pt "Times New Roman"'>         
</span></span></span><![endif]><span lang=EN-US>do an intensive hardware check
on the volume<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p>

<p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p>

<p class=MsoNormal><span lang=EN-US>But: that’s what happened during
pvmove –v /dev/sdh:<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>…….<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>/dev/sdh: Moved: 78,6%<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  /dev/sdh: Moved: 79,1%<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  /dev/sdh: Moved: 79,7%<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  /dev/sdh: Moved: 80,0%<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>    Updating volume group metadata<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>    Creating volume group backup
"/etc/lvm/backup/myvol_vg" (seqno 46).<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  Error locking on node server1:
device-mapper: reload ioctl failed: Das Argument ist ungültig<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  Unable to reactivate logical volume
"pvmove0"<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  ABORTING: Segment progression failed.<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>    Removing temporary pvmove LV<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>    Writing out final volume group after
pvmove<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>    Creating volume group backup
"/etc/lvm/backup/myvol_vg" (seqno 48).<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>[root@hpserver1 ~]# pvscan<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  PV /dev/cciss/c0d0p2   VG VolGroup00  
lvm2 [33,81 GB / 0    free]<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  PV /dev/sda            VG fit_vg      
lvm2 [68,36 GB / 0    free]<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  PV /dev/sdb            VG fit_vg      
lvm2 [68,36 GB / 0    free]<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  PV /dev/sdc            VG fit_vg      
lvm2 [68,36 GB / 0    free]<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  PV /dev/sdd            VG fit_vg      
lvm2 [68,36 GB / 0    free]<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  PV /dev/sde            VG fit_vg      
lvm2 [66,75 GB / 46,75 GB free]<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  PV /dev/sdf            VG fit_vg      
lvm2 [68,36 GB / 0    free]<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  PV /dev/sdg            VG fit_vg      
lvm2 [68,36 GB / 0    free]<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  PV /dev/sdh            VG fit_vg      
lvm2 [68,36 GB / 58,36 GB free]<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  PV /dev/sdj            VG fit_vg      
lvm2 [68,36 GB / 54,99 GB free]<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  PV /dev/sdi            VG fit_vg      
lvm2 [68,36 GB / 15,09 GB free]<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  PV /dev/sdk1           VG fit_vg      
lvm2 [68,36 GB / 55,09 GB free]<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  Total: 12 [784,20 GB] / in use: 12
[784,20 GB] / in no VG: 0 [0   ]<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p>

<p class=MsoNormal><span lang=EN-US>That sounded bad, and I didn’t have
any idea what to do, but read, that pvmove can start at the point it was, so I
started pvmove againg and now pvmove could move all data.<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>pvscan and vgscan -vvv showed me, that all
data were moved from the /dev/sdh volume to the other volumes.<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p>

<p class=MsoNormal><span lang=EN-US>To be sure I restarted my cluster nodes,
but they encountered problems mounting the gfs filesystems. <o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>I got this error:<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p>

<p class=MsoNormal><span lang=EN-US>[root@server1 ~]# /etc/init.d/clvmd stop<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>Deactivating VG myvol_vg:   Volume group
"myvol_vg" inconsistent<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  WARNING: Inconsistent metadata found for
VG myvol_vg - updating to use version 148<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  0 logical volume(s) in volume group
"myvol_vg" now active<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>                                                          
[  OK  ]<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>Stopping
clvm:                                             [  OK  ]<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>[root@server1 ~]# /etc/init.d/clvmd start<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>Starting
clvmd:                                            [  OK  ]<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>Activating VGs:   2 logical volume(s) in
volume group "VolGroup00" now active<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  Volume group "myvol_vg"
inconsistent<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  WARNING: Inconsistent metadata found for
VG myvol_vg - updating to use version 151<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  Error locking on node server1: Volume
group for uuid not found:
tGRfaK5aW00pFRXcLtrdHAw5a4GNDVBtuFZZe8QKoX8sVA0XRTNoDQVWVftk8cSa<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  Error locking on node server1: Volume
group for uuid not found: tGRfaK5aW00pFRXcLtrdHAw5a4GNDVBtqDfFtrJTFTGuju8nNjwtCdPGnzP3hh8k<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  Error locking on node server1: Volume
group for uuid not found:
tGRfaK5aW00pFRXcLtrdHAw5a4GNDVBtc22hBY40phdVvVdFBFX28PvfF7JrlIYz<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  Error locking on node server1: Volume
group for uuid not found: tGRfaK5aW00pFRXcLtrdHAw5a4GNDVBtWfJ1EqXJ309gO3Gx0ZvpNekrmHFo9u2V<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  Error locking on node server1: Volume
group for uuid not found:
tGRfaK5aW00pFRXcLtrdHAw5a4GNDVBtCP6czghnQFEjNdv9DF6bsUmnK3eJ5vKp<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  Error locking on node server1: Volume
group for uuid not found: tGRfaK5aW00pFRXcLtrdHAw5a4GNDVBt0KNlnblpwOfcnqIjk4GJ662dxOsL70GF<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  0 logical volume(s) in volume group
"myvol_vg" now active<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>                                                          
</span>[  OK  ]<o:p></o:p></p>

<p class=MsoNormal><o:p> </o:p></p>

<p class=MsoNormal><span lang=EN-US>As I take a look at it, these 6 volumes are
exactly the LVs which should be found and where all datas are stored.<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p>

<p class=MsoNormal><span lang=EN-US>The next step was in the beginning step by
step and in the end stupid try and error. <o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>This was one of the first actions:<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p>

<p class=MsoNormal><span lang=EN-US>[root@hpserver1 ~]# vgreduce --removemissing
myvol_vg<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>    Logging initialised at Tue Jul  1
10:00:52 2008<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>    Set umask to 0077<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>    Finding volume group "myvol_vg"<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>    Wiping cache of LVM-capable devices<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  WARNING: Inconsistent metadata found for
VG myvol_vg - updating to use version 229<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  Volume group "myvol_vg" is
already consistent<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p>

<p class=MsoNormal><span lang=EN-US>We tried to deactivate the volume via
vgchange –n y myvol_vg, we tried to “removemissing” and sadly
after a few concurrent tries (dmsetup info –c, dmsetup mknodes and vgchange
–n y myvol_vg) we can access our LVs, but we still get this message and
we don’t know why:<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  Volume group "myvol_vg"
inconsistent<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>  WARNING: Inconsistent metadata found for
VG myvol_vg - updating to use version 228<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p>

<p class=MsoNormal><span lang=EN-US>I’m a little bit worried about our
data,<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p>

<p class=MsoNormal><span lang=EN-US>Regards<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US>Andreas<o:p></o:p></span></p>

<p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p>

</div>

</body>

</html>