I had a similar problem some months ago.  It was caused by the redhat nash program's mount command in the initrd probing drives when it shouldn't (like when you mount the /proc filesystem).  I wrote a patch to the nash source code to fix it on my system. 
<br>
<br># diff -Naur block.c.orig block.c
<br>--- block.c.orig        2006-03-08 11:46:59.000000000 -0800
<br>+++ block.c     2006-03-30 02:49:19.000000000 -0800
<br>@@ -337,6 +337,23 @@
<br>     return NULL;
<br> }
<br>
<br>+static char *
<br>+block_populate_cache()
<br>+{
<br>+    bdev_iter biter;
<br>+    bdev dev = NULL;
<br>+    blkid_dev bdev = NULL;
<br>+
<br>+    biter = block_sysfs_iterate_begin("/sys/block");
<br>+    while(block_sysfs_next(biter, &dev) >= 0) {
<br>+
<br>+        bdev = blkid_get_dev(cache, dev->dev_path, BLKID_DEV_FIND);
<br>+    }
<br>+    block_sysfs_iterate_end(&biter);
<br>+
<br>+    return NULL;
<br>+}
<br>+
<br> char *
<br> block_find_fs_by_label(const char *label)
<br> {
<br>@@ -356,7 +373,7 @@
<br>
<br>     if (!access("/sys/block", F_OK)) {
<br>         /* populate the whole cache */
<br>-        block_find_fs_by_keyvalue("unlikely","unlikely");
<br>+        block_populate_cache();
<br>
<br>         /* now look our device up */
<br>         bdev = blkid_get_dev(cache, name, BLKID_DEV_NORMAL);
<br>
<br>
<br>---------[ Received Mail Content ]----------
<br>>Subject : Initrd boot phase errors reading bogus partition on ATA raid drive
<br>>Date : Thu, 26 Oct 2006 15:19:01 -0700
<br>>From : "charlweed" <charlweed@comcast.net>
<br>>To : <ataraid-list@redhat.com>
<br>>
<br>>Hi gurus!
<br>>
<br>>Booting my Fedora 5 (2.6.18-1.2200.fc5) system takes an extra couple of
<br>>minutes because of disk errors. The system is trying to "do something" with
<br>>a partition on a drive that is part of a raid set, and failing. These errors
<br>>occur during the initrd boot phase. After the system boot, the system is
<br>>apparently ok. 
<br>>
<br>>When I boot Linux, I get several screens worth of the following error
<br>>
<br>>      Buffer I/O error on device hde1, logical block 625153152
<br>>
<br>> 
<br>>
<br>>hde is part of a 2 disk striped raid set. I can stop the errors if I add
<br>>"hde=noprobe hdf=noprobe" as a kernel boot parameter, but then I cannot use
<br>>dmraid to access my raid partition, because /dev/hde & /dev/hde don't exist.
<br>>I tried adding boot parameter "hde=19457,255,63" but the device remains
<br>>invisible.
<br>>
<br>> 
<br>>
<br>>My naive guess is that I can solve my problem by either 
<br>>
<br>>1) Getting dmraid to see my drives after a boot that uses "noprobe"
<br>>
<br>>2) Stopping whatever program is trying to access hde1 during the initrd
<br>>boot.
<br>>
<br>>All my attempts at 1) have failed, and I have no idea how to do 2).
<br>>
<br>> 
<br>>
<br>>My System has
<br>>
<br>>      An Abit AN7 nforce chipset motherboard with 
<br>>
<br>>             2 ATA onboard channels
<br>>
<br>>      onboard Si3112 SATA Raid ( I use SATA, but not the SATA raid)
<br>>
<br>>      A SiI0680 (CMD 680) pci ATA card
<br>>
<br>>      
<br>>
<br>>The drive layout is 
<br>>
<br>>      hda onboard ata [hda1=/boot ,ext3 : hda2=unmounted, ntfs]
<br>>
<br>>      hdc onboard ata [ hdc1= /, ext3 : hdc2=swap : hdc3=/var, ext3]
<br>>
<br>>**    hde SiI0680 striped raid set 1
<br>>
<br>>      hdf SiI0680 [ hdf1=unmounted, ntfs ]
<br>>
<br>>**    hdg SiI0680 striped raid set 1
<br>>
<br>>      sda onboard SATA [sda1=unmounted, ntfs]
<br>>
<br>>**    dm-0 raid 1[dm-0p1=unmounted, ntfs] 
<br>>
<br>>Thanks!
<br>>
<br>>Charlweed
<br>>
<br>> 
<br>>
<br>>
<br>