Hi again everyone,<br>
<br>
Could someone let me know exactly how I go about getting the metadate off of my drive?<br>
<br>
I finally managed to create my own customized amd64 dmraid (rc9) livecd
to allow me to extract data from my raid, now I just need to know what
commands etc. I need to issue to get the metadata so I can send it to
Heinz.<br>
<br>
By the way, I'm using a syba fakeraid card with the siI0680 chipset
onboard and 2x seagate 120gb 8mb cache 7200rpm drives. For this reason
I tend to agree with Molle's statement that the silraid detection fails
on some newer drives as well.<br>
<br>
Glad to see work is being done on silraid, I was really getting worried that I would never get it to work!<br>
<br>
Kind Regards,<br>
-- <br>
Richard Powell (<a href="mailto:richard@povs.us">richard@povs.us</a>)<br><br><div><span class="gmail_quote">On 11/3/05, <b class="gmail_sendername">Heinz Mauelshagen</b> <<a href="mailto:mauelshagen@redhat.com">mauelshagen@redhat.com
</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><br>James,<br><br>it works but it breaks my design goal to avoid hw ties in dmraid code :(
<br><br>Can you send me your metadata dd'ed into files hd[efg].dat, so that I can try<br>figure another PCI* dependency avoiding approach ?<br><br>Thanks,<br>Heinz<br><br>On Sun, Oct 30, 2005 at 01:15:58AM -0500, James Olson wrote:
<br>>  Hi Molle,<br>>
Thanks for your help.  Anyway, the hpa message turned out to
be a red herring.  The problem was actually in the detection
of the magic number in the metadata.  From sil.c the magic
number is defined:<br>> #define       SIL_MAGIC       0x2F000000<br>> and on my 3 drives I read:<br>>
magic:        hdf            
0x0F000000 disk_number: 2<br>>
magic:        hdg            
0x2F000000 disk_number: 1<br>>
magic:        hde            
0x0B000000 disk_number: 0<br>><br>> so it is finding the metadata but the routine:<br>> return sil->magic == SIL_MAGIC && sil->disk_number < 8;<br>> fails for hdf and hde.<br>><br>>
I wasn't sure how to fix the magic number detection so I wrote a patch
to use the PCI vendor and product ID instead, like they do in the
working ataraid, medley 2.4 kernel modules, and it works! :<br>><br>> --- dmraid.orig/dmraid/1.0.0.rc9/lib/format/ataraid/sil.c     2005-09-22 06:09:02.000000000 -0700<br>> +++ dmraid/1.0.0.rc9/lib/format/ataraid/sil.c 2005-10-29 22:50:
32.000000000 -0700<br>> @@ -128,7 +128,11 @@<br>><br>>  static int is_sil(struct sil *sil)<br>>  {<br>> -     return sil->magic == SIL_MAGIC && sil->disk_number < 8;<br>> +#define SIL_680_VENDOR_ID   0x1095
<br>> +#define SIL_680_PRODUCT_ID  0x0680<br>>
+     if ((sil->vendor_id == SIL_680_VENDOR_ID)
&& (sil->product_id == SIL_680_PRODUCT_ID))<br>> +     return 1;<br>> +     else return 0;<br>>  }<br>><br>>  static int sil_valid(struct lib_context *lc, struct dev_info *di,<br>><br>> ----- Original Message -----
<br>> From: "Molle Bestefich" <<a href="mailto:molle.bestefich@gmail.com">molle.bestefich@gmail.com</a>><br>> To: "ATARAID (eg, Promise Fasttrak,  Highpoint 370) related discussions" <<a href="mailto:ataraid-list@redhat.com">
ataraid-list@redhat.com</a>><br>> Subject: Re: Fw: Re: Fw: medley raid problem<br>> Date: Sat, 29 Oct 2005 22:54:28 +0200<br>><br>> ><br>> > James Olson wrote:<br>> > > 2.4 kernel dmesg log:
<br>> > > hde: 6835952 sectors (3500 MB), CHS=6781/16/63, UDMA(33)<br>> > > hdf: 6346368 sectors (3249 MB) w/96KiB Cache, CHS=6296/16/63, DMA<br>> > > hdg: host protected area => 1<br>> > > hdg: 6346368 sectors (3249 MB) w/256KiB Cache, CHS=6296/16/63, UDMA(33)
<br>> ><br>> > Too bad it doesn't tell you how large the HPA is, otherwise you could<br>> > subtract that from the total size and look for metadata at the<br>> > resulting sector...<br>> ><br>
> > > Here is the 2.6 log:<br>> > > hde: FUJITSU MPA3035ATU, ATA DISK drive<br>> > > hdf: IBM-DAQA-33240, ATA DISK drive<br>> > > hdg: WDC AC23200L, ATA DISK drive<br>> > > hde: 6835952 sectors (3500 MB), CHS=6781/16/63, UDMA(33)
<br>> > > hdf: 6346368 sectors (3249 MB) w/96KiB Cache, CHS=6296/16/63, DMA<br>> > > hdg: 6346368 sectors (3249 MB) w/256KiB Cache, CHS=6296/16/63, UDMA(33)<br>> ><br>> > I've seen 2.6 versions that do tell about HPA areas, I find it suspect
<br>> > that yours doesn't.<br>> > Perhaps it's a bug (but it really does disable the HPA), perhaps there<br>> > really is no HPA or perhaps the information has been intentionally<br>> > removed from newer 
2.6 kernels.<br>> ><br>> > Could you compare the number of sectors that Linux tells you above to<br>> > the number reported by your BIOS?<br>> ><br>> > Just to get you up to speed on HPA:<br>
> > There was some discussion on linux-kernel, and the powers that be<br>> > (Alan Cox) does not want to change the kernel's current faulty<br>> > behaviour of automatically disabling the HPA, since that would break
<br>> > things for the few people that has partitions which span the HPA if<br>> > they upgrade the kernel and do not manually enable the "HPA disable"<br>> > thing.  Most of those people supposedly have BIOSs where they can
<br>> > disable HPA the proper way (the ThinkPad users do, at least), but that<br>> > argument didn't seem to stick.<br>> ><br>> > The only way forward right now that would pass the Cox barrier is a
<br>> > patch that change all the partition detection code to:<br>> >   * Know about HPA/non-HPA size of physical devices.<br>> >   * Detect partitions that are out-of-bounds of the non-HPA size.<br>> >   * Call IDE code to disable HPA when such partitions are found.
<br>> ><br>> > Or patches that:<br>> >   * Change all user code to be aware of HPA versus non-HPA IDE disks.<br>> ><br>> > Both seems overly complex solutions compared to:<br>> >   * Fixing the kernel to behave itself and not disable HPA.
<br>> >   * Provide a kernel command line flag or configuration option for<br>> > those who need to disable HPA manually because they have a horrible<br>> > BIOS.<br>> ><br>> > But that's how things are right now.
<br>> ><br>> > > Also there is some question of the drive geometry between the different kernels.<br>> > > The hdparm -g outputs differ.<br>> ><br>> > Maybe 2.4 does not disable HPA?<br>
> > 2.6 does (my best guess is that it does so because some IDE developer<br>> > had a laptop which didn't allow him to disable HPA).<br>> ><br>> > Seems odd though, since the two logs you've given indicate that both
<br>> > kernels see the same number of sectors.  What sector count do you get<br>> > if you run fdisk on the two kernels?<br>> ><br>> > Blah blah.  Sorry for the lengthy mail.<br>> ><br>> > _______________________________________________
<br>> > Ataraid-list mailing list<br>> > <a href="mailto:Ataraid-list@redhat.com">Ataraid-list@redhat.com</a><br>> > <a href="https://www.redhat.com/mailman/listinfo/ataraid-list">https://www.redhat.com/mailman/listinfo/ataraid-list
</a><br>><br>><br>> --<br>> _______________________________________________<br>><br>> Search for businesses by name, location, or phone number.  -Lycos Yellow Pages<br>><br>> <a href="http://r.lycos.com/r/yp_emailfooter/http://yellowpages.lycos.com/default.asp?SRC=lycos10">
http://r.lycos.com/r/yp_emailfooter/http://yellowpages.lycos.com/default.asp?SRC=lycos10</a><br>><br>><br>> _______________________________________________<br>> Ataraid-list mailing list<br>> <a href="mailto:Ataraid-list@redhat.com">
Ataraid-list@redhat.com</a><br>> <a href="https://www.redhat.com/mailman/listinfo/ataraid-list">https://www.redhat.com/mailman/listinfo/ataraid-list</a><br><br>=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-
<br><br>Heinz
Mauelshagen                                
Red Hat GmbH<br>Consulting Development
Engineer                  
Am Sonnenhang 11<br>Cluster and Storage
Development                  
56242 Marienrachdorf<br>                                                  Germany<br><a href="mailto:Mauelshagen@RedHat.com">Mauelshagen@RedHat.com</a>                            +49
2626 141200<br>                                                      
FAX 924446<br>=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-<br><br>_______________________________________________<br>Ataraid-list mailing list<br><a href="mailto:Ataraid-list@redhat.com">
Ataraid-list@redhat.com</a><br><a href="https://www.redhat.com/mailman/listinfo/ataraid-list">https://www.redhat.com/mailman/listinfo/ataraid-list</a><br></blockquote></div><br>