<HTML><BODY><p>Hello!<br>I have an IBM System x3200 M2 with Fibre HBA: Brocade Communications Systems, Inc. 415/815/41B/81B 4Gbps/8Gbps PCIe single port FC HBA (rev 01), on it installed Red Hat Enterprise Linux 5 kernel 2.6.18-238.19.1.<br>used native multipath-tools v0.4.7 (03/12, 2006) and mdadm.</p><p>#modinfo bfa</p><p>filename: /lib/modules/2.6.18-238.19.1.el5/kernel/drivers/scsi/bfa/bfa.ko<br>version: 2.1.2.0<br>author: Brocade Communications Systems, Inc.<br>description: Brocade Fibre Channel HBA Driver fcpim</p><p>and IBM DS 3512 with 2 LUN, LUN this raid6</p><p>configured multipath configuration:</p><p>#cat /etc/multipath.conf</p><p>defaults {<br># user_friendly_names no<br># polling_interval 2<br># path_selector "round-robin 0"<br># selector "round-robin 0"<br># polling_interval 2<br># find_multipaths yes<br># flush_on_last_del yes<br># checker_timeout 10<br># failback immediate<br># failback manual<br># path_checker readsector0<br># path_checker rdac<br># path_grouping_policy failover<br># path_grouping_policy multibus<br># rr_min_io 100<br># features 0<br># no_path_retry fail<br># getuid_callout "/sbin/scsi_id -g -u -s /block/%n"<br># getuid_callout "/lib/udev/scsi_id --whitelisted --device=/dev/%n."<br># prio_callout "/sbin/mpath_prio_rdac /dev/%n"<br># dev_loss_tmo 10<br># fast_io_fail_tmo 5<br> }#defaults<br>####################<br>blacklist {<br> devnode "sda"<br> wwid *<br> }#blacklist<br>####################<br>blacklist_exceptions {<br>#osnovnoy_1<br> wwid 360080e50002ef5ee00000bbe524a8ced<br>#rezerv_1<br> wwid 360080e50002ef5ee00000bc1524a8d93<br> }#blacklist_exceptions<br>####################<br>devices {<br> device {<br> vendor "IBM"<br> product "1746 FAStT"<br># path_checker rdac<br># path_selector "round-robin 0"<br> }#device<br> }#devices<br>####################<br>multipaths {<br> multipath {<br> wwid 360080e50002ef5ee00000bbe524a8ced<br> alias osnov_1<br> }<br> multipath {<br> wwid 360080e50002ef5ee00000bc1524a8d93<br> alias rezerv_1<br> }<br>}</p><p><br>#lsscsi<br>[0:2:0:0] disk IBM ServeRAID-MR10k 1.40 /dev/sda<br>[3:0:0:0] disk IBM 1746 FAStT 1070 /dev/sdb<br>[3:0:0:1] disk IBM 1746 FAStT 1070 /dev/sdf<br>[3:0:0:31] disk IBM Universal Xport 1070 -<br>[3:0:1:0] disk IBM 1746 FAStT 1070 /dev/sdh<br>[3:0:1:1] disk IBM 1746 FAStT 1070 /dev/sdi<br>[3:0:1:31] disk IBM Universal Xport 1070 -<br>[3:0:2:0] disk IBM 1746 FAStT 1070 /dev/sdj<br>[3:0:2:1] disk IBM 1746 FAStT 1070 /dev/sdk<br>[3:0:2:31] disk IBM Universal Xport 1070 -<br>[3:0:3:0] disk IBM 1746 FAStT 1070 /dev/sdl<br>[3:0:3:1] disk IBM 1746 FAStT 1070 /dev/sdm<br>[3:0:3:31] disk IBM Universal Xport 1070 -<br>[4:0:0:0] disk IBM 1746 FAStT 1070 /dev/sdc<br>[4:0:0:1] disk IBM 1746 FAStT 1070 /dev/sdd<br>[4:0:0:31] disk IBM Universal Xport 1070 -<br>[4:0:1:0] disk IBM 1746 FAStT 1070 /dev/sde<br>[4:0:1:1] disk IBM 1746 FAStT 1070 /dev/sdg<br>[4:0:1:31] disk IBM Universal Xport 1070 -<br>[4:0:2:0] disk IBM 1746 FAStT 1070 /dev/sdn<br>[4:0:2:1] disk IBM 1746 FAStT 1070 /dev/sdo<br>[4:0:2:31] disk IBM Universal Xport 1070 -<br>[4:0:3:0] disk IBM 1746 FAStT 1070 /dev/sdp<br>[4:0:3:1] disk IBM 1746 FAStT 1070 /dev/sdq<br>[4:0:3:31] disk IBM Universal Xport 1070 -</p><p><br>#multipath -ll<br>osnov_1 (360080e50002ef5ee00000bbe524a8ced) dm-2 IBM,1746 FAStT<br>[size=11T][features=3 queue_if_no_path pg_init_retries 50][hwhandler=1 rdac][rw]<br>\_ round-robin 0 [prio=400][active]<br> \_ 4:0:0:0 sdc 8:32 [active][ready]<br> \_ 3:0:1:0 sdh 8:112 [active][ready]<br> \_ 3:0:3:0 sdl 8:176 [active][ready]<br> \_ 4:0:2:0 sdn 8:208 [active][ready]<br>\_ round-robin 0 [prio=0][enabled]<br> \_ 3:0:0:0 sdb 8:16 [active][ghost]<br> \_ 4:0:1:0 sde 8:64 [active][ghost]<br> \_ 3:0:2:0 sdj 8:144 [active][ghost]<br> \_ 4:0:3:0 sdp 8:240 [active][ghost]<br>rezerv_1 (360080e50002ef5ee00000bc1524a8d93) dm-3 IBM,1746 FAStT<br>[size=11T][features=3 queue_if_no_path pg_init_retries 50][hwhandler=1 rdac][rw]<br>\_ round-robin 0 [prio=400][active]<br> \_ 4:0:0:1 sdd 8:48 [active][ready]<br> \_ 3:0:1:1 sdi 8:128 [active][ready]<br> \_ 3:0:3:1 sdm 8:192 [active][ready]<br> \_ 4:0:2:1 sdo 8:224 [active][ready]<br>\_ round-robin 0 [prio=0][enabled]<br> \_ 3:0:0:1 sdf 8:80 [active][ghost]<br> \_ 4:0:1:1 sdg 8:96 [active][ghost]<br> \_ 3:0:2:1 sdk 8:160 [active][ghost]<br> \_ 4:0:3:1 sdq 65:0 [active][ghost]</p><p><br>configured mdadm configuration:</p><p>#mdadm -D /dev/md0<br>mdadm: metadata format 1.00 unknown, ignored.<br>/dev/md0:<br> Version : 1.00<br> Creation Time : Tue Oct 22 12:34:01 2013<br> Raid Level : raid1<br> Array Size : 11718818096 (11175.94 GiB 12000.07 GB)<br> Used Dev Size : 11718818096 (11175.94 GiB 12000.07 GB)<br> Raid Devices : 2<br> Total Devices : 2<br>Preferred Minor : 0<br> Persistence : Superblock is persistent</p><p>Intent Bitmap : Internal</p><p>Update Time : Thu Oct 24 11:45:38 2013<br> State : active<br> Active Devices : 2<br>Working Devices : 2<br> Failed Devices : 0<br> Spare Devices : 0</p><p>Name : 0<br> UUID : cfffde5b:3f232606:f45a5be9:d7a5c4b2<br> Events : 21</p><p>Number Major Minor RaidDevice State<br> 0 253 4 0 active sync /dev/dm-4<br> 1 253 5 1 active sync /dev/dm-5</p><p><br>#cat /proc/mdstat<br>Personalities : [raid1]<br>md0 : active raid1 dm-4[0] dm-5[1]<br> 11718818096 blocks super 1.0 [2/2] [UU]<br> bitmap: 0/11 pages [0KB], 524288KB chunk</p><p>unused devices: <none></p><p><br>md0 is formatted in ext3</p><p>#tune2fs -l /dev/md0<br>tune2fs 1.39 (29-May-2006)<br>Filesystem volume name: <none><br>Last mounted on: <not available><br>Filesystem UUID: 6a2352e4-be78-4c53-80a3-a7e7614cb6c2<br>Filesystem magic number: 0xEF53<br>Filesystem revision #: 1 (dynamic)<br>Filesystem features: has_journal resize_inode dir_index filetype needs_recovery sparse_super large_file<br>Default mount options: (none)<br>Filesystem state: clean<br>Errors behavior: Continue<br>Filesystem OS type: Linux<br>Inode count: 1464860672<br>Block count: 2929704524<br>Reserved block count: 29297045<br>Free blocks: 2883691408<br>Free inodes: 1464860662<br>First block: 0<br>Block size: 4096<br>Fragment size: 4096<br>Reserved GDT blocks: 325<br>Blocks per group: 32768<br>Fragments per group: 32768<br>Inodes per group: 16384<br>Inode blocks per group: 512<br>Filesystem created: Wed Oct 23 09:16:11 2013<br>Last mount time: Thu Oct 24 11:45:33 2013<br>Last write time: Thu Oct 24 11:45:33 2013<br>Mount count: 5<br>Maximum mount count: 38<br>Last checked: Wed Oct 23 09:16:11 2013<br>Check interval: 15552000 (6 months)<br>Next check after: Mon Apr 21 09:16:11 2014<br>Reserved blocks uid: 0 (user root)<br>Reserved blocks gid: 0 (group root)<br>First inode: 11<br>Inode size: 128<br>Journal inode: 8<br>Default directory hash: tea<br>Directory Hash Seed: 82383c38-be3a-4096-9082-ad295ee3404e<br>Journal backup: inode blocks</p><p>md0 mounted on /osnov.<br>and using the command:<br>#dd if=/dev/zero of=/osnov/test bs=1MB count=1000<br>or <br>simply copy from MCvs</p><p>we get:</p><p>Code: 0f 0b 68 ce fc 2c 88 c2 95 04 8d 42 01 66 89 45 00 c7 43 50<br>RIP [<ffffffff80218ab2>] bitmap_startwrite+0xb5/0x101<br>    RSP<ffff81105fbb9c20><br> <0>Kernel panic - not syncing: Fatal exception</p><p>without bitmap all works!<br>You can get rid of this problem without installing new drivers and programs?</p><p><br></p>-- <br>Yuriy Vet<br></BODY></HTML>