Not in /etc/mdadm.conf...  Where else could it be defined?<br><br><div class="gmail_quote">On Tue, Dec 2, 2008 at 3:53 PM, Lonni J Friedman <span dir="ltr"><<a href="mailto:netllama@gmail.com">netllama@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Are you sure that you don't have a spare designated somewhere?<br>
<div><div></div><div class="Wj3C7c"><br>
On Tue, Dec 2, 2008 at 2:32 PM, Eitan Tsur <<a href="mailto:eitan.tsur@gmail.com">eitan.tsur@gmail.com</a>> wrote:<br>
> Ok, so here's what /proc/mdstat says after a clean reboot:<br>
><br>
> Personalities : [raid6] [raid5] [raid4]<br>
> md0 : active raid5 sdb1[0] sdc1[1]<br>
>       1465143808 blocks level 5, 256k chunk, algorithm 2 [3/2] [UU_]<br>
><br>
> md_d0 : inactive sdd[2](S)<br>
>       732574464 blocks<br>
><br>
> unused devices: <none><br>
><br>
> I basically have to do:<br>
><br>
>>mdadm --stop /dev/md_d0<br>
>>mdadm --add /dev/md0 /dev/sdd1<br>
>>cat /proc/mdstat<br>
> Personalities : [raid6] [raid5] [raid4]<br>
> md0 : active raid5 sdd1[3] sdb1[0] sdc1[1]<br>
>       1465143808 blocks level 5, 256k chunk, algorithm 2 [3/2] [UU_]<br>
>       [>....................]  recovery =  0.4% (3269252/732571904)<br>
> finish=153.7min speed=79057K/sec<br>
><br>
> unused devices: <none><br>
><br>
> Furthermore, the first time I saw this, it was /dev/sdb that had dropped.<br>
> Yesterday it was /dev/sdc.  Today it's /dev/sdd.  That's what throws me off<br>
> about this whole thing.<br>
><br>
> Regards,<br>
> -Eitan-<br>
><br>
> On Sun, Nov 30, 2008 at 2:41 PM, Lonni J Friedman <<a href="mailto:netllama@gmail.com">netllama@gmail.com</a>><br>
> wrote:<br>
>><br>
>> On Sun, Nov 30, 2008 at 2:38 PM, Eitan Tsur <<a href="mailto:eitan.tsur@gmail.com">eitan.tsur@gmail.com</a>> wrote:<br>
>> > I just recently installed a 3-disk RAID5 array in a server of mine,<br>
>> > running<br>
>> > FC9. Upon reboot, one of the drives drops out, and is allocated as a<br>
>> > spare.<br>
>> > I suspect there is some sort of issue where DBUS re-arranges the<br>
>> > drive-to-device maps between boots, but I am not sure... Just kind of<br>
>> > annoying to have to stop and re-add a drive every boot, and wait the<br>
>> > couple<br>
>> > hours for the array to rebuild the 3rd disk. Any thoughts? Anyone else<br>
>> > encountered such an issue before? What should I be looking for? I'm new<br>
>> > to<br>
>> > the world of RAID, so any information you can give may be helpful.<br>
>><br>
>> What's in /etc/mdadm.conf, /proc/mdstat and dmesg when this fails ?<br>
>><br>
<br>
<br>
<br>
--<br>
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~<br>
L. Friedman                                    <a href="mailto:netllama@gmail.com">netllama@gmail.com</a><br>
LlamaLand                       <a href="https://netllama.linux-sxs.org" target="_blank">https://netllama.linux-sxs.org</a><br>
<br>
--<br>
fedora-list mailing list<br>
<a href="mailto:fedora-list@redhat.com">fedora-list@redhat.com</a><br>
To unsubscribe: <a href="https://www.redhat.com/mailman/listinfo/fedora-list" target="_blank">https://www.redhat.com/mailman/listinfo/fedora-list</a><br>
Guidelines: <a href="http://fedoraproject.org/wiki/Communicate/MailingListGuidelines" target="_blank">http://fedoraproject.org/wiki/Communicate/MailingListGuidelines</a><br>
</div></div></blockquote></div><br>