<br>Oh and also check your /boot/grub/grub.conf file for any LABEL= entries and change them to /dev entries also.
<br>---------[ Received Mail Content ]----------
<br>>Subject : [RE]RE: [RE]Initrd boot phase errors reading bogus partition on ATA     raiddrive
<br>>Date : Mon, 30 Oct 2006 16:55:10 -0500 (EST)
<br>>From : "James Olson" <big_spender12@lycos.com>
<br>>To : "ATARAID (eg, Promise Fasttrak,  Highpoint 370) related discussions" <ataraid-list@redhat.com>
<br>>
<br>>You are welcome. If there are still some errors they could be due to other things, for example I have seen udev do this. Also if you mount anything by its volume label that will also cause a scan. In other words look in your fstab for entries like LABEL=/ and change them to /dev/sda or whatever. Then recreate the initial ramdisk with mkinitrd.
<br>>
<br>>---------[ Received Mail Content ]----------
<br>>>Subject : RE: [RE]Initrd boot phase errors reading bogus partition on ATA     raiddrive
<br>>>Date : Mon, 30 Oct 2006 10:42:55 -0800
<br>>>From : "listbox" 
<br>>>To : "'ATARAID (eg, Promise Fasttrak, Highpoint 370) related discussions'" 
<br>>>
<br>>>Thank you so much!
<br>>>It took me half a day to go from uber-newbie to being able to run the new
<br>>>image ( I've never done the patch -> rpmbuild thing ).
<br>>>Strangely enough though, this patch only dramatically REDUCED the number of 
<br>>>"Buffer I/O error on device hde1, logical block BLA-BLA-BLA" errors, it did
<br>>>not eliminate them.
<br>>>So,now I'm more than tempted to go into nash and turn off all attempts to
<br>>>access hde, sil60, or whatever I have to in order to get it to boot quickly
<br>>>and quietly. After all, on this machine, I know exactly where the root
<br>>>filesystem is.
<br>>> 
<br>>>Any advice?
<br>>>
<br>>>Charlweed
<br>>>________________________________
<br>>>
<br>>>From: James Olson [mailto:big_spender12@lycos.com] 
<br>>>Sent: Thursday, October 26, 2006 6:39 PM
<br>>>To: ATARAID (eg, Promise Fasttrak, Highpoint 370) related discussions
<br>>>Subject: [RE]Initrd boot phase errors reading bogus partition on ATA
<br>>>raiddrive
<br>>>
<br>>>
<br>>>I had a similar problem some months ago. It was caused by the redhat nash
<br>>>program's mount command in the initrd probing drives when it shouldn't (like
<br>>>when you mount the /proc filesystem). I wrote a patch to the nash source
<br>>>code to fix it on my system. 
<br>>>
<br>>># diff -Naur block.c.orig block.c 
<br>>>--- block.c.orig 2006-03-08 11:46:59.000000000 -0800 
<br>>>+++ block.c 2006-03-30 02:49:19.000000000 -0800 
<br>>>@@ -337,6 +337,23 @@ 
<br>>>return NULL; 
<br>>>} 
<br>>>
<br>>>+static char * 
<br>>>+block_populate_cache() 
<br>>>+{ 
<br>>>+ bdev_iter biter; 
<br>>>+ bdev dev = NULL; 
<br>>>+ blkid_dev bdev = NULL; 
<br>>>+ 
<br>>>+ biter = block_sysfs_iterate_begin("/sys/block"); 
<br>>>+ while(block_sysfs_next(biter, &dev) >= 0) { 
<br>>>+ 
<br>>>+ bdev = blkid_get_dev(cache, dev->dev_path, BLKID_DEV_FIND); 
<br>>>+ } 
<br>>>+ block_sysfs_iterate_end(&biter); 
<br>>>+ 
<br>>>+ return NULL; 
<br>>>+} 
<br>>>+ 
<br>>>char * 
<br>>>block_find_fs_by_label(const char *label) 
<br>>>{ 
<br>>>@@ -356,7 +373,7 @@ 
<br>>>
<br>>>if (!access("/sys/block", F_OK)) { 
<br>>>/* populate the whole cache */ 
<br>>>- block_find_fs_by_keyvalue("unlikely","unlikely"); 
<br>>>+ block_populate_cache(); 
<br>>>
<br>>>/* now look our device up */ 
<br>>>bdev = blkid_get_dev(cache, name, BLKID_DEV_NORMAL); 
<br>>>
<br>>>
<br>>>---------[ Received Mail Content ]---------- 
<br>>>>Subject : Initrd boot phase errors reading bogus partition on ATA raid
<br>>>drive 
<br>>>>Date : Thu, 26 Oct 2006 15:19:01 -0700 
<br>>>>From : "charlweed" 
<br>>>>To : 
<br>>>> 
<br>>>>Hi gurus! 
<br>>>> 
<br>>>>Booting my Fedora 5 (2.6.18-1.2200.fc5) system takes an extra couple of 
<br>>>>minutes because of disk errors. The system is trying to "do something" with
<br>>>
<br>>>>a partition on a drive that is part of a raid set, and failing. These
<br>>>errors 
<br>>>>occur during the initrd boot phase. After the system boot, the system is 
<br>>>>apparently ok. 
<br>>>> 
<br>>>>When I boot Linux, I get several screens worth of the following error 
<br>>>> 
<br>>>> Buffer I/O error on device hde1, logical block 625153152 
<br>>>> 
<br>>>> 
<br>>>> 
<br>>>>hde is part of a 2 disk striped raid set. I can stop the errors if I add 
<br>>>>"hde=noprobe hdf=noprobe" as a kernel boot parameter, but then I cannot use
<br>>>
<br>>>>dmraid to access my raid partition, because /dev/hde & /dev/hde don't
<br>>>exist. 
<br>>>>I tried adding boot parameter "hde=19457,255,63" but the device remains 
<br>>>>invisible. 
<br>>>> 
<br>>>> 
<br>>>> 
<br>>>>My naive guess is that I can solve my problem by either 
<br>>>> 
<br>>>>1) Getting dmraid to see my drives after a boot that uses "noprobe" 
<br>>>> 
<br>>>>2) Stopping whatever program is trying to access hde1 during the initrd 
<br>>>>boot. 
<br>>>> 
<br>>>>All my attempts at 1) have failed, and I have no idea how to do 2). 
<br>>>> 
<br>>>> 
<br>>>> 
<br>>>>My System has 
<br>>>> 
<br>>>> An Abit AN7 nforce chipset motherboard with 
<br>>>> 
<br>>>> 2 ATA onboard channels 
<br>>>> 
<br>>>> onboard Si3112 SATA Raid ( I use SATA, but not the SATA raid) 
<br>>>> 
<br>>>> A SiI0680 (CMD 680) pci ATA card 
<br>>>> 
<br>>>> 
<br>>>> 
<br>>>>The drive layout is 
<br>>>> 
<br>>>> hda onboard ata [hda1=/boot ,ext3 : hda2=unmounted, ntfs] 
<br>>>> 
<br>>>> hdc onboard ata [ hdc1= /, ext3 : hdc2=swap : hdc3=/var, ext3] 
<br>>>> 
<br>>>>** hde SiI0680 striped raid set 1 
<br>>>> 
<br>>>> hdf SiI0680 [ hdf1=unmounted, ntfs ] 
<br>>>> 
<br>>>>** hdg SiI0680 striped raid set 1 
<br>>>> 
<br>>>> sda onboard SATA [sda1=unmounted, ntfs] 
<br>>>> 
<br>>>>** dm-0 raid 1[dm-0p1=unmounted, ntfs] 
<br>>>> 
<br>>>>Thanks! 
<br>>>> 
<br>>>>Charlweed 
<br>>>> 
<br>>>> 
<br>>>> 
<br>>>> 
<br>>>
<br>>>
<br>>>_______________________________________________
<br>>>Ataraid-list mailing list
<br>>>Ataraid-list@redhat.com
<br>>>https://www.redhat.com/mailman/listinfo/ataraid-list
<br>>>
<br>>>
<br>>
<br>
<br>