Hi,<br><br>I am facing very weird issue while creating MD volumes on Native multipath on Redhat5.x.<br>The issue is like: As soon as I create md volumes using mdadm --create command on Native multipath disks, later after reboot those disks goes off from the multipath configurations.<br>
<br>Below are the descriptions with sample:<br>i have 3 internal disk say sda, sdb, and sdc, and 4 Multipath SAN disks say sde, sdf, sdg and sdh and their corresponding multipath disks sdi, sdj, sdk and sdl<br><br>1.  I configured multipath on above mentioned disks with backlisting sda and sdb internal disks. Then output looks like:<br>
Creating multipath.conf<br>=======================<br><br><br>[root@rh16 /]# multipath -v2<br>create: sdc_internaldisk (360019b90c965f5000eba30a82232eec8)  DELL,PERC 5/i<br>[size=136G][features=0][hwhandler=0][n/a]<br>\_ round-robin 0 [prio=1][undef]<br>
 \_ 0:2:2:0 sdc 8:32  [undef][ready]<br>create: san_e_i (360060160a9c21200e61a012e5787e011)  DGC,RAID 5<br>[size=9.0G][features=0][hwhandler=0][n/a]<br>\_ round-robin 0 [prio=2][undef]<br> \_ 1:0:1:0 sde 8:64  [undef][ready]<br>
 \_ 2:0:0:0 sdi 8:128 [undef][ready]<br>create: san_f_j (360060160a9c21200749a8c3a5787e011)  DGC,RAID 5<br>[size=9.0G][features=0][hwhandler=0][n/a]<br>\_ round-robin 0 [prio=2][undef]<br> \_ 1:0:1:1 sdf 8:80  [undef][ready]<br>
 \_ 2:0:0:1 sdj 8:144 [undef][ready]<br>create: san_g_k (360060160a9c21200544657435787e011)  DGC,RAID 5<br>[size=11G][features=0][hwhandler=0][n/a]<br>\_ round-robin 0 [prio=2][undef]<br> \_ 1:0:1:2 sdg 8:96  [undef][ready]<br>
 \_ 2:0:0:2 sdk 8:160 [undef][ready]<br>create: mpath4 (360060160a9c21200980d7b4b5787e011)  DGC,RAID 5<br>[size=11G][features=0][hwhandler=0][n/a]<br>\_ round-robin 0 [prio=2][undef]<br> \_ 1:0:1:3 sdh 8:112 [undef][ready]<br>
 \_ 2:0:0:3 sdl 8:176 [undef][ready]<br><br><br>[root@rh16 /]# multipath -ll<br>san_g_k (360060160a9c21200544657435787e011) dm-3 DGC,RAID 5<br>[size=11G][features=1 queue_if_no_path][hwhandler=0][rw]<br>\_ round-robin 0 [prio=2][active]<br>
 \_ 1:0:1:2 sdg 8:96  [active][ready]<br> \_ 2:0:0:2 sdk 8:160 [active][ready]<br>san_f_j (360060160a9c21200749a8c3a5787e011) dm-2 DGC,RAID 5<br>[size=9.0G][features=1 queue_if_no_path][hwhandler=0][rw]<br>\_ round-robin 0 [prio=2][active]<br>
 \_ 1:0:1:1 sdf 8:80  [active][ready]<br> \_ 2:0:0:1 sdj 8:144 [active][ready]<br>san_e_i (360060160a9c21200e61a012e5787e011) dm-1 DGC,RAID 5<br>[size=9.0G][features=1 queue_if_no_path][hwhandler=0][rw]<br>\_ round-robin 0 [prio=2][active]<br>
 \_ 1:0:1:0 sde 8:64  [active][ready]<br> \_ 2:0:0:0 sdi 8:128 [active][ready]<br>sdc_internaldisk (360019b90c965f5000eba30a82232eec8) dm-0 DELL,PERC 5/i<br>[size=136G][features=1 queue_if_no_path][hwhandler=0][rw]<br>\_ round-robin 0 [prio=1][active]<br>
 \_ 0:2:2:0 sdc 8:32  [active][ready]<br>mpath4 (360060160a9c21200980d7b4b5787e011) dm-4 DGC,RAID 5<br>[size=11G][features=1 queue_if_no_path][hwhandler=0][rw]<br>\_ round-robin 0 [prio=2][active]<br> \_ 1:0:1:3 sdh 8:112 [active][ready]<br>
 \_ 2:0:0:3 sdl 8:176 [active][ready]<br>[root@rh16 /]#<br><br>2. I reboot the system, later some outputs:<br><br><br>[root@rh20 /]# multipath -ll<br>sde: checker msg is "emc_clariion_checker: Logical Unit is unbound or LUNZ"<br>
sdj: checker msg is "emc_clariion_checker: Logical Unit is unbound or LUNZ"<br>sdd_internaldisk (360024e8080572c00154c076313d985b4) dm-1 DELL,PERC 6/i<br>[size=136G][features=1 queue_if_no_path][hwhandler=0][rw]<br>
\_ round-robin 0 [prio=1][active]<br> \_ 0:2:3:0 sdd 8:48  [active][ready]<br>sdc_internaldisk (360024e8080572c00154c0757132ca9bb) dm-0 DELL,PERC 6/i<br>[size=136G][features=1 queue_if_no_path][hwhandler=0][rw]<br>\_ round-robin 0 [prio=1][active]<br>
 \_ 0:2:2:0 sdc 8:32  [active][ready]<br>san_i_n (36006016059801a005b293544eb82e011) dm-5 DGC,RAID 10<br>[size=10G][features=1 queue_if_no_path][hwhandler=1 emc][rw]<br>\_ round-robin 0 [prio=2][active]<br> \_ 3:0:1:3 sdi 8:128 [active][ready]<br>
 \_ 4:0:1:3 sdn 8:208 [active][ready]<br>san_h_m (36006016059801a005a293544eb82e011) dm-4 DGC,RAID 10<br>[size=10G][features=1 queue_if_no_path][hwhandler=1 emc][rw]<br>\_ round-robin 0 [prio=2][active]<br> \_ 3:0:1:2 sdh 8:112 [active][ready]<br>
 \_ 4:0:1:2 sdm 8:192 [active][ready]<br>san_g_l (36006016059801a0059293544eb82e011) dm-3 DGC,RAID 10<br>[size=10G][features=1 queue_if_no_path][hwhandler=1 emc][rw]<br>\_ round-robin 0 [prio=2][active]<br> \_ 3:0:1:1 sdg 8:96  [active][ready]<br>
 \_ 4:0:1:1 sdl 8:176 [active][ready]<br>san_f_k (36006016059801a0058293544eb82e011) dm-2 DGC,RAID 10<br>[size=10G][features=1 queue_if_no_path][hwhandler=1 emc][rw]<br>\_ round-robin 0 [prio=2][active]<br> \_ 3:0:1:0 sdf 8:80  [active][ready]<br>
 \_ 4:0:1:0 sdk 8:160 [active][ready]<br>[root@rh20 /]#<br><br><i><b>NO ISSUES SO FAR</b></i><br><br>3. Now creating partitions for MD volumes on san_e_i, san_f_k and san_g_l<br><br>[root@rh16 /]# fdisk /dev/mapper/<br>control           san_e_i           san_g_k<br>
mpath4            san_f_j           sdc_internaldisk<br>[root@rh16 /]# fdisk /dev/mapper/san_e_i<br><br>The number of cylinders for this disk is set to 1174.<br>There is nothing wrong with that, but this is larger than 1024,<br>
and could in certain setups cause problems with:<br>1) software that runs at boot time (e.g., old versions of LILO)<br>2) booting and partitioning software from other OSs<br>   (e.g., DOS FDISK, OS/2 FDISK)<br><br>Command (m for help): p<br>
<br>Disk /dev/mapper/san_e_i: 9663 MB, 9663676416 bytes<br>255 heads, 63 sectors/track, 1174 cylinders<br>Units = cylinders of 16065 * 512 = 8225280 bytes<br><br>              Device Boot      Start         End      Blocks   Id  System<br>
<br>Command (m for help): n<br>Command action<br>   e   extended<br>   p   primary partition (1-4)<br>p<br>Partition number (1-4): 1<br>First cylinder (1-1174, default 1):<br>Using default value 1<br>Last cylinder or +size or +sizeM or +sizeK (1-1174, default 1174): +3G<br>
<br>Command (m for help): t<br>Selected partition 1<br>Hex code (type L to list codes): fd<br>Changed system type of partition 1 to fd (Linux raid autodetect)<br><br>Command (m for help): w<br>The partition table has been altered!<br>
<br>Calling ioctl() to re-read partition table.<br><br>WARNING: Re-reading the partition table failed with error 22: Invalid argument.<br>The kernel still uses the old table.<br>The new table will be used at the next reboot.<br>
Syncing disks.<br>[root@rh16 /]# fdisk /dev/mapper/san_f_j<br><br>The number of cylinders for this disk is set to 1174.<br>There is nothing wrong with that, but this is larger than 1024,<br>and could in certain setups cause problems with:<br>
1) software that runs at boot time (e.g., old versions of LILO)<br>2) booting and partitioning software from other OSs<br>   (e.g., DOS FDISK, OS/2 FDISK)<br><br>Command (m for help): p<br><br>Disk /dev/mapper/san_f_j: 9663 MB, 9663676416 bytes<br>
255 heads, 63 sectors/track, 1174 cylinders<br>Units = cylinders of 16065 * 512 = 8225280 bytes<br><br>              Device Boot      Start         End      Blocks   Id  System<br><br>Command (m for help): n<br>Command action<br>
   e   extended<br>   p   primary partition (1-4)<br>p<br>Partition number (1-4):<br>Value out of range.<br>Partition number (1-4): 1<br>First cylinder (1-1174, default 1):<br>Using default value 1<br>Last cylinder or +size or +sizeM or +sizeK (1-1174, default 1174): +3G<br>
<br>Command (m for help): t<br>Selected partition 1<br>Hex code (type L to list codes): fd<br>Changed system type of partition 1 to fd (Linux raid autodetect)<br><br>Command (m for help): w<br>The partition table has been altered!<br>
<br>Calling ioctl() to re-read partition table.<br><br>WARNING: Re-reading the partition table failed with error 22: Invalid argument.<br>The kernel still uses the old table.<br>The new table will be used at the next reboot.<br>
Syncing disks.<br>[root@rh16 /]# fdisk /dev/mapper/san_<br>san_e_i  san_f_j  san_g_k<br>[root@rh16 /]# fdisk /dev/mapper/san_g_k<br><br>The number of cylinders for this disk is set to 1435.<br>There is nothing wrong with that, but this is larger than 1024,<br>
and could in certain setups cause problems with:<br>1) software that runs at boot time (e.g., old versions of LILO)<br>2) booting and partitioning software from other OSs<br>   (e.g., DOS FDISK, OS/2 FDISK)<br><br>Command (m for help): p<br>
<br>Disk /dev/mapper/san_g_k: 11.8 GB, 11811160064 bytes<br>255 heads, 63 sectors/track, 1435 cylinders<br>Units = cylinders of 16065 * 512 = 8225280 bytes<br><br>              Device Boot      Start         End      Blocks   Id  System<br>
<br>Command (m for help): n<br>Command action<br>   e   extended<br>   p   primary partition (1-4)<br>p<br>Partition number (1-4): 1<br>First cylinder (1-1435, default 1):<br>Using default value 1<br>Last cylinder or +size or +sizeM or +sizeK (1-1435, default 1435): +3G<br>
<br>Command (m for help): t<br>Selected partition 1<br>Hex code (type L to list codes): fd<br>Changed system type of partition 1 to fd (Linux raid autodetect)<br><br>Command (m for help): w<br>The partition table has been altered!<br>
<br>Calling ioctl() to re-read partition table.<br><br>WARNING: Re-reading the partition table failed with error 22: Invalid argument.<br>The kernel still uses the old table.<br>The new table will be used at the next reboot.<br>
Syncing disks.<br>[root@rh16 /]# fdisk -l<br><br>Disk /dev/sda: 146.1 GB, 146163105792 bytes<br>255 heads, 63 sectors/track, 17769 cylinders<br>Units = cylinders of 16065 * 512 = 8225280 bytes<br><br>   Device Boot      Start         End      Blocks   Id  System<br>
/dev/sda1   *           1         255     2048256   83  Linux<br>/dev/sda2             256        4079    30716280   83  Linux<br>/dev/sda3            4080        4716     5116702+  82  Linux swap / Solaris<br><br>Disk /dev/sdb: 146.1 GB, 146163105792 bytes<br>
255 heads, 63 sectors/track, 17769 cylinders<br>Units = cylinders of 16065 * 512 = 8225280 bytes<br><br>   Device Boot      Start         End      Blocks   Id  System<br><br>Disk /dev/sdc: 146.1 GB, 146163105792 bytes<br>
255 heads, 63 sectors/track, 17769 cylinders<br>Units = cylinders of 16065 * 512 = 8225280 bytes<br><br>   Device Boot      Start         End      Blocks   Id  System<br><br>Disk /dev/sde: 9663 MB, 9663676416 bytes<br>64 heads, 32 sectors/track, 9216 cylinders<br>
Units = cylinders of 2048 * 512 = 1048576 bytes<br><br>   Device Boot      Start         End      Blocks   Id  System<br><br>Disk /dev/sdf: 9663 MB, 9663676416 bytes<br>64 heads, 32 sectors/track, 9216 cylinders<br>Units = cylinders of 2048 * 512 = 1048576 bytes<br>
<br>   Device Boot      Start         End      Blocks   Id  System<br><br>Disk /dev/sdg: 11.8 GB, 11811160064 bytes<br>64 heads, 32 sectors/track, 11264 cylinders<br>Units = cylinders of 2048 * 512 = 1048576 bytes<br><br>
   Device Boot      Start         End      Blocks   Id  System<br><br>Disk /dev/sdh: 11.8 GB, 11811160064 bytes<br>64 heads, 32 sectors/track, 11264 cylinders<br>Units = cylinders of 2048 * 512 = 1048576 bytes<br><br>   Device Boot      Start         End      Blocks   Id  System<br>
<br>Disk /dev/sdi: 9663 MB, 9663676416 bytes<br>64 heads, 32 sectors/track, 9216 cylinders<br>Units = cylinders of 2048 * 512 = 1048576 bytes<br><br>   Device Boot      Start         End      Blocks   Id  System<br><br>Disk /dev/sdj: 9663 MB, 9663676416 bytes<br>
64 heads, 32 sectors/track, 9216 cylinders<br>Units = cylinders of 2048 * 512 = 1048576 bytes<br><br>   Device Boot      Start         End      Blocks   Id  System<br><br>Disk /dev/sdk: 11.8 GB, 11811160064 bytes<br>64 heads, 32 sectors/track, 11264 cylinders<br>
Units = cylinders of 2048 * 512 = 1048576 bytes<br><br>   Device Boot      Start         End      Blocks   Id  System<br><br>Disk /dev/sdl: 11.8 GB, 11811160064 bytes<br>64 heads, 32 sectors/track, 11264 cylinders<br>Units = cylinders of 2048 * 512 = 1048576 bytes<br>
<br>   Device Boot      Start         End      Blocks   Id  System<br><br>Disk /dev/dm-0: 146.1 GB, 146163105792 bytes<br>255 heads, 63 sectors/track, 17769 cylinders<br>Units = cylinders of 16065 * 512 = 8225280 bytes<br>
<br>     Device Boot      Start         End      Blocks   Id  System<br><br>Disk /dev/dm-1: 9663 MB, 9663676416 bytes<br>255 heads, 63 sectors/track, 1174 cylinders<br>Units = cylinders of 16065 * 512 = 8225280 bytes<br><br>
     Device Boot      Start         End      Blocks   Id  System<br>/dev/dm-1p1               1         366     2939863+  fd  Linux raid autodetect<br><br>Disk /dev/dm-2: 9663 MB, 9663676416 bytes<br>255 heads, 63 sectors/track, 1174 cylinders<br>
Units = cylinders of 16065 * 512 = 8225280 bytes<br><br>     Device Boot      Start         End      Blocks   Id  System<br>/dev/dm-2p1               1         366     2939863+  fd  Linux raid autodetect<br><br>Disk /dev/dm-3: 11.8 GB, 11811160064 bytes<br>
255 heads, 63 sectors/track, 1435 cylinders<br>Units = cylinders of 16065 * 512 = 8225280 bytes<br><br>     Device Boot      Start         End      Blocks   Id  System<br>/dev/dm-3p1               1         366     2939863+  fd  Linux raid autodetect<br>
<br>Disk /dev/dm-4: 11.8 GB, 11811160064 bytes<br>255 heads, 63 sectors/track, 1435 cylinders<br>Units = cylinders of 16065 * 512 = 8225280 bytes<br><br>     Device Boot      Start         End      Blocks   Id  System<br>
[root@rh16 /]#<br><br>CHECKED here MULTIPATH -LL commands, <i><b>NO ISSUES SO FAR</b></i><br><br>[root@rh16 /]# multipath -ll<br>san_g_k (360060160a9c21200544657435787e011) dm-3 DGC,RAID 5<br>[size=11G][features=1 queue_if_no_path][hwhandler=0][rw]<br>
\_ round-robin 0 [prio=2][active]<br> \_ 1:0:1:2 sdg 8:96  [active][ready]<br> \_ 2:0:0:2 sdk 8:160 [active][ready]<br>san_f_j (360060160a9c21200749a8c3a5787e011) dm-2 DGC,RAID 5<br>[size=9.0G][features=1 queue_if_no_path][hwhandler=0][rw]<br>
\_ round-robin 0 [prio=2][active]<br> \_ 1:0:1:1 sdf 8:80  [active][ready]<br> \_ 2:0:0:1 sdj 8:144 [active][ready]<br>san_e_i (360060160a9c21200e61a012e5787e011) dm-1 DGC,RAID 5<br>[size=9.0G][features=1 queue_if_no_path][hwhandler=0][rw]<br>
\_ round-robin 0 [prio=2][active]<br> \_ 1:0:1:0 sde 8:64  [active][ready]<br> \_ 2:0:0:0 sdi 8:128 [active][ready]<br>sdc_internaldisk (360019b90c965f5000eba30a82232eec8) dm-0 DELL,PERC 5/i<br>[size=136G][features=1 queue_if_no_path][hwhandler=0][rw]<br>
\_ round-robin 0 [prio=1][active]<br> \_ 0:2:2:0 sdc 8:32  [active][ready]<br>mpath4 (360060160a9c21200980d7b4b5787e011) dm-4 DGC,RAID 5<br>[size=11G][features=1 queue_if_no_path][hwhandler=0][rw]<br>\_ round-robin 0 [prio=2][active]<br>
 \_ 1:0:1:3 sdh 8:112 [active][ready]<br> \_ 2:0:0:3 sdl 8:176 [active][ready]<br>[root@rh16 /]# dmsetup -ls<br>dmsetup: invalid option -- l<br>Couldn't process command line.<br>[root@rh16 /]# dmsetup ls<br>san_g_k (253, 3)<br>
san_f_j (253, 2)<br>san_e_i (253, 1)<br>sdc_internaldisk        (253, 0)<br>mpath4  (253, 4)<br>[root@rh16 /]#<br><br><br>4. Reboot the system and outputs of multipath -ll<br><br>[root@rh16 /]# multipath -ll<br>san_g_k (360060160a9c21200544657435787e011) dm-3 DGC,RAID 5<br>
[size=11G][features=1 queue_if_no_path][hwhandler=0][rw]<br>\_ round-robin 0 [prio=2][active]<br> \_ 1:0:1:2 sdg 8:96  [active][ready]<br> \_ 2:0:0:2 sdk 8:160 [active][ready]<br>san_f_j (360060160a9c21200749a8c3a5787e011) dm-2 DGC,RAID 5<br>
[size=9.0G][features=1 queue_if_no_path][hwhandler=0][rw]<br>\_ round-robin 0 [prio=2][active]<br> \_ 1:0:1:1 sdf 8:80  [active][ready]<br> \_ 2:0:0:1 sdj 8:144 [active][ready]<br>san_e_i (360060160a9c21200e61a012e5787e011) dm-1 DGC,RAID 5<br>
[size=9.0G][features=1 queue_if_no_path][hwhandler=0][rw]<br>\_ round-robin 0 [prio=2][active]<br> \_ 1:0:1:0 sde 8:64  [active][ready]<br> \_ 2:0:0:0 sdi 8:128 [active][ready]<br>sdc_internaldisk (360019b90c965f5000eba30a82232eec8) dm-0 DELL,PERC 5/i<br>
[size=136G][features=1 queue_if_no_path][hwhandler=0][rw]<br>\_ round-robin 0 [prio=1][active]<br> \_ 0:2:2:0 sdc 8:32  [active][ready]<br>mpath4 (360060160a9c21200980d7b4b5787e011) dm-4 DGC,RAID 5<br>[size=11G][features=1 queue_if_no_path][hwhandler=0][rw]<br>
\_ round-robin 0 [prio=2][active]<br> \_ 1:0:1:3 sdh 8:112 [active][ready]<br> \_ 2:0:0:3 sdl 8:176 [active][ready]<br>[root@rh16 /]# dmsetup ls<br>san_g_k (253, 3)<br>san_f_j (253, 2)<br>san_e_i (253, 1)<br>sdc_internaldisk        (253, 0)<br>
san_e_ip1       (253, 7)<br>san_f_jp1       (253, 6)<br>mpath4  (253, 4)<br>san_g_kp1       (253, 5)<br>[root@rh16 /]#<br><br><br><i><b>NO ISSUES SO FAR</b></i><br><br>5. now creating MD volumes on above created partitions in Native MultiPath partitions<br>
<br>root@rh16 /]# mdadm --create /dev/md5 --verbose --level=5 --raid-devices=3 /dev/mapper/san_e_i<br>san_e_i    san_e_ip1<br>[root@rh16 /]# mdadm --create /dev/md5 --verbose --level=5 --raid-devices=3 /dev/mapper/san_e_ip1 /dev/mapper/san_g_kp1 <br>
<br>/dev/mapper/san_<br>san_e_i    san_e_ip1  san_f_j    san_f_jp1  san_g_k    san_g_kp1<br>[root@rh16 /]# mdadm --create /dev/md5 --verbose --level=5 --raid-devices=3 /dev/mapper/san_e_ip1 /dev/mapper/san_g_kp1 <br><br>/dev/mapper/san_f_jp1<br>
mdadm: layout defaults to left-symmetric<br>mdadm: chunk size defaults to 64K<br>mdadm: size set to 2939776K<br>mdadm: array /dev/md5 started.<br>[root@rh16 /]# mdadm --detail /dev/md5<br>/dev/md5:<br>        Version : 0.90<br>
  Creation Time : Tue May 31 05:46:52 2011<br>     Raid Level : raid5<br>     Array Size : 5879552 (5.61 GiB 6.02 GB)<br>  Used Dev Size : 2939776 (2.80 GiB 3.01 GB)<br>   Raid Devices : 3<br>  Total Devices : 3<br>Preferred Minor : 5<br>
    Persistence : Superblock is persistent<br><br>    Update Time : Tue May 31 05:46:52 2011<br>          State : clean, degraded, recovering<br> Active Devices : 2<br>Working Devices : 3<br> Failed Devices : 0<br>  Spare Devices : 1<br>
<br>         Layout : left-symmetric<br>     Chunk Size : 64K<br><br> Rebuild Status : 1% complete<br><br>           UUID : 232014c0:7996e8d7:e1b2d23a:059eda6f<br>         Events : 0.1<br><br>    Number   Major   Minor   RaidDevice State<br>
       0     253        7        0      active sync   /dev/dm-7<br>       1     253        5        1      active sync   /dev/dm-5<br>       3     253        6        2      spare rebuilding   /dev/dm-6<br>[root@rh16 /]#<br>
<br><br>[root@rh16 /]# mdadm --detail /dev/md5<br>/dev/md5:<br>        Version : 0.90<br>  Creation Time : Tue May 31 05:46:52 2011<br>     Raid Level : raid5<br>     Array Size : 5879552 (5.61 GiB 6.02 GB)<br>  Used Dev Size : 2939776 (2.80 GiB 3.01 GB)<br>
   Raid Devices : 3<br>  Total Devices : 3<br>Preferred Minor : 5<br>    Persistence : Superblock is persistent<br><br>    Update Time : Tue May 31 05:56:01 2011<br>          State : clean<br> Active Devices : 3<br>Working Devices : 3<br>
 Failed Devices : 0<br>  Spare Devices : 0<br><br>         Layout : left-symmetric<br>     Chunk Size : 64K<br><br>           UUID : 232014c0:7996e8d7:e1b2d23a:059eda6f<br>         Events : 0.2<br><br>    Number   Major   Minor   RaidDevice State<br>
       0     253        7        0      active sync   /dev/dm-7<br>       1     253        5        1      active sync   /dev/dm-5<br>       2     253        6        2      active sync   /dev/dm-6<br>[root@rh16 /]# mkdir /r5_mp<br>
[root@rh16 /]# mkfs -t ext3 /dev/md5<br>mke2fs 1.39 (29-May-2006)<br>Filesystem label=<br>OS type: Linux<br>Block size=4096 (log=2)<br>Fragment size=4096 (log=2)<br>735840 inodes, 1469888 blocks<br>73494 blocks (5.00%) reserved for the super user<br>
First data block=0<br>Maximum filesystem blocks=1505755136<br>45 block groups<br>32768 blocks per group, 32768 fragments per group<br>16352 inodes per group<br>Superblock backups stored on blocks:<br>        32768, 98304, 163840, 229376, 294912, 819200, 884736<br>
<br>Writing inode tables: done<br>Creating journal (32768 blocks): done<br>Writing superblocks and filesystem accounting information: done<br><br>This filesystem will be automatically checked every 30 mounts or<br>180 days, whichever comes first.  Use tune2fs -c or -i to override.<br>
[root@rh16 /]#<br><br>Now, again checking multipath -ll output<br><br>[root@rh16 /]# multipath -ll<br>san_g_k (360060160a9c21200544657435787e011) dm-3 DGC,RAID 5<br>[size=11G][features=1 queue_if_no_path][hwhandler=0][rw]<br>
\_ round-robin 0 [prio=2][active]<br> \_ 1:0:1:2 sdg 8:96  [active][ready]<br> \_ 2:0:0:2 sdk 8:160 [active][ready]<br>san_f_j (360060160a9c21200749a8c3a5787e011) dm-2 DGC,RAID 5<br>[size=9.0G][features=1 queue_if_no_path][hwhandler=0][rw]<br>
\_ round-robin 0 [prio=2][active]<br> \_ 1:0:1:1 sdf 8:80  [active][ready]<br> \_ 2:0:0:1 sdj 8:144 [active][ready]<br>san_e_i (360060160a9c21200e61a012e5787e011) dm-1 DGC,RAID 5<br>[size=9.0G][features=1 queue_if_no_path][hwhandler=0][rw]<br>
\_ round-robin 0 [prio=2][active]<br> \_ 1:0:1:0 sde 8:64  [active][ready]<br> \_ 2:0:0:0 sdi 8:128 [active][ready]<br>sdc_internaldisk (360019b90c965f5000eba30a82232eec8) dm-0 DELL,PERC 5/i<br>[size=136G][features=1 queue_if_no_path][hwhandler=0][rw]<br>
\_ round-robin 0 [prio=1][active]<br> \_ 0:2:2:0 sdc 8:32  [active][ready]<br>mpath4 (360060160a9c21200980d7b4b5787e011) dm-4 DGC,RAID 5<br>[size=11G][features=1 queue_if_no_path][hwhandler=0][rw]<br>\_ round-robin 0 [prio=2][active]<br>
 \_ 1:0:1:3 sdh 8:112 [active][ready]<br> \_ 2:0:0:3 sdl 8:176 [active][ready]<br>[root@rh16 /]#<br><br><br><i><u><b>NOTE here that MD volumes are not yet mounted</b></u></i><br><br>6. Reboot the system and check multipath -ll output:<br>
<br><br>[root@rh16 /]# multipath -ll<br>sdc_internaldisk (360019b90c965f5000eba30a82232eec8) dm-0 DELL,PERC 5/i<br>[size=136G][features=1 queue_if_no_path][hwhandler=0][rw]<br>\_ round-robin 0 [prio=1][active]<br> \_ 0:2:2:0 sdc 8:32  [active][ready]<br>
mpath4 (360060160a9c21200980d7b4b5787e011) dm-1 DGC,RAID 5<br>[size=11G][features=1 queue_if_no_path][hwhandler=0][rw]<br>\_ round-robin 0 [prio=2][active]<br> \_ 1:0:1:3 sdh 8:112 [active][ready]<br> \_ 2:0:0:3 sdl 8:176 [active][ready]<br>
[root@rh16 /]#<br><br>YOU CAN SEE FROM ABOVE OUTPUT THAT ALL DISKS on which MD was created goes off from the multipath configuration, though not touched the multipath.conf file<br><br>Any suggestions/ inputs would be a great help.<br>
<br>Regards<br>Amrish<br>