<br><div class="gmail_quote">On Fri, Oct 28, 2011 at 12:32, Peter Ruprecht <span dir="ltr"><<a href="mailto:peter.ruprecht@jila.colorado.edu">peter.ruprecht@jila.colorado.edu</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
Greg Swift wrote:<div><div></div><div class="h5"><br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
On Fri, Oct 28, 2011 at 11:30, Masopust, Christian <<a href="mailto:christian.masopust@siemens.com" target="_blank">christian.masopust@siemens.<u></u>com</a> <mailto:<a href="mailto:christian.masopust@siemens.com" target="_blank">christian.masopust@<u></u>siemens.com</a>>> wrote:<br>

<br>
<br>
     > Götz Reinicke wrote:<br>
     > > Hi,<br>
     > ><br>
     > > we plan to set up a big file storage for media files like<br>
     > uncompressed<br>
     > > movies from student film projects, dvd images etc.<br>
     > ><br>
     > > It should be some sort of archive and will not bee accessed<br>
     > by more than<br>
     > > may be 5 people at the same time.<br>
     > ><br>
     > > The iSCSI RAID we have is about 26TB netto and I'm again<br>
     > faced with the<br>
     > > question: How many partitions, which filesystem, which<br>
     > mount options etc.<br>
     > ><br>
     > > For the User it would be the most simpel thing, to have one big<br>
     > > filesystem she/he could fill with all the data and dont has<br>
     > to search<br>
     > > e.g. on multiple volumes.<br>
     > ><br>
     > > On the other hand, if one big filesystem crashes or has do<br>
     > be checked it<br>
     > > will destroy a lot of data or the check will take hours ...<br>
     > ><br>
     > ><br>
     > > Any suggestions pro or cons are welcome! :-)<br>
     > ><br>
     > > My favourite for now is 3 to 4 filesystems with the default ext4<br>
     > > settings. (Redhat EL 5.7, may be soon 6.1)<br>
     > ><br>
     > > Thanks and best regards. Götz<br>
     ><br>
     > If you decide to go with RHEL6, xfs is a good bet for making one big<br>
     > filesystem.  We have a setup similar to what you're<br>
     > describing and have<br>
     > had very solid stability and performance using xfs (default<br>
     > filesystem<br>
     > and mount settings.)  As far as I can see (and knocking on<br>
     > wood), xfs is<br>
     > now a lot less flaky than it seemed to be in the past.<br>
     ><br>
     >   -Peter<br>
<br>
    I can approve what Peter mentioned. I've been using xfs on my<br>
    CentOS 5 system with 2 16TB arrays (each holding one single filesystem)<br>
    for several years with absolutely no issues!<br>
<br>
<br>
So in his intial request he mentioned concern about fsck times.  How has this been for you guys (Christian and Peter) ?<br>
<br>
fwiw, I'm actually mixing both xfs with 30+TB total file system and gluster in a different use case...  I just haven't had to fsck a system yet so I am very curious about how that is performing for others.<br>
<br>
-greg<br>
</blockquote>
<br></div></div>
In testing, I purposely crashed the system while under light-moderate I/O load, and the xfs fs didn't need any recovery when it was remounted.  I don't have any real-world experience with how long it would take to xfs_check and xfs_repair a fs of that size that had gotten corrupted, sorry.  Though I will not be disappointed if I manage to avoid gaining that experience!<br>
<font color="#888888">
</font><br></blockquote></div><br>thats good to hear.  now that I think about it we've actually survived several system crashes (bug in firm on cpu hardware) and I don't think any of them have had to fsck.  hmm... maybe we'll force a check one of these days to experiment.<br>