Eric,<div><br></div><div>Thanks for the quick reply... see my responses inline...</div><div><br></div><div>On Fri, Mar 26, 2010 at 12:16 PM, Eric Sandeen <span dir="ltr"><<a href="mailto:sandeen@redhat.com">sandeen@redhat.com</a>></span> wrote:<br>

<div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;"><div class="im">On 03/26/2010 01:52 PM, Arun Nair wrote:<br>
> Hi -<br>
><br>
> (I apologize for the ext4 question in an ext3 mailer, but I couldn't<br>
> find a user list for ext4.)<br>
<br>
</div><a href="mailto:linux-ext4@vger.kernel.org">linux-ext4@vger.kernel.org</a> :)  but that's ok.<br></blockquote><div><br></div><div>Saw that but thought it was a dev-only list, sorry. Next time :)</div><div> </div>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<div class="im"><br>
> Per my understanding, ext4 can support file sizes upto 16 TiB if you use<br>
> 4k blocks. I have a logical volume which uses ext4 with a 4k block size<br>
> but I am unable to create files that are 8TiB (8796093022208 bytes) or<br>
> larger.<br>
><br>
> [root@camanoe] ls -l<br>
> total 8589935388<br>
> -rw-rw---- 1 root root 8796093022207 2010-03-26 11:43 bigfile<br>
><br>
> [root@camanoe] echo x >> bigfile<br>
> -bash: echo: write error: File too large<br>
<br>
</div>Perhaps echo isn't using largefile semantics?  Is this the first<br>
test you did, or is echo the simple testcase, and something else<br>
failed?<br></blockquote><div><br></div><div>It's the simple test case. We found the problem when MySQL failed to expand its ibdata file beyond 8 TB. I then tried dd as well with notrunc like you mentioned, same error:</div>

<div><br></div><div><div>[root@camanoe]# dd oflag=append conv=notrunc if=/dev/zero of=bigfile bs=1 count=1</div><div>dd: writing `bigfile': File too large</div><div>1+0 records in</div><div>0+0 records out</div><div>
0 bytes (0 B) copied, 0.000234712 s, 0.0 kB/s</div>
<div><br></div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<br>
It works for me on rawhide x86_64:<br>
<br>
create a file with blocks past 8T:<br>
# xfs_io -F -f -c "pwrite 8T 1M" bigfile<br>
wrote 1048576/1048576 bytes at offset 8796093022208<br>
1 MiB, 256 ops; 0.0000 sec (206.313 MiB/sec and 52816.1750 ops/sec)<br>
<br>
echo more into it:<br>
# echo x >> bigfile<br>
<br>
it really is that big:<br>
# ls -lh bigfile<br>
-rw-------. 1 root root 8.1T Mar 26 14:13 bigfile<br>
<br>
I don't have an x86 box to test quickly; try something besides echo,<br>
is what I'd suggest - xfs_io would work, or probably dd (with<br>
conv=notrunc if you want to append)<br></blockquote><div><br></div><div>dd fails as mentioned above. xfs_io errors too:</div><div><div>[root@camanoe]# xfs_io -F -f -c "pwrite 8T 1M" bigfile2</div><div>pwrite64: File too large</div>

<div><br></div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<font color="#888888"><br>
-Eric<br>
<br>
</font></blockquote></div><br></div><div>BTW, my system is NOT 64-bit but my guess is this doesn't affect max file size?</div><div><br></div>