<div dir="ltr"><div>After run regression tests using 'git bisect', I identify that the error was created after commit 8c081b52c6833a30a69ea3bdcef316eccc740c87</div><div><br></div><div>To reproduce this error just:</div><div>- create a raid1 HDDs for origin device;</div><div>- create a cache device with SSDs (could or not be raid)</div><div>- create a metadata device with SSDs (could or not be raid)</div><div>- create a cache device using prior devices</div><div>- kernel crashes.<br></div><div><br></div><div>I attached the bitseclog and diff file!</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Nov 18, 2014 at 4:18 PM, Leonardo Santos <span dir="ltr"><<a href="mailto:heiligerstein@gmail.com" target="_blank">heiligerstein@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div>I tested updating my xbox to same production kernel (3.17.2) and the problem appears now.</div><div><br></div><div>The old kernel (ok) is 3.13.0-37.</div><div><br></div><div>About updating lvm, I think it should not be, because this time I did not use them and did creating only through the dmsetup command.</div><div><br></div><div>I will continue testing with other kernels.</div><div><br></div><div>Can anyone help me?</div></div><div><br></div></div><div class="HOEnZb"><div class="h5"><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Nov 17, 2014 at 4:14 PM, Leonardo Santos <span dir="ltr"><<a href="mailto:heiligerstein@gmail.com" target="_blank">heiligerstein@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><span>On Mon, Nov 17, 2014 at 12:46 PM, Mike Snitzer <span dir="ltr"><<a href="mailto:snitzer@redhat.com" target="_blank">snitzer@redhat.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><span>On Mon, Nov 17 2014 at  9:24am -0500,<br>
Leonardo Santos <<a href="mailto:heiligerstein@gmail.com" target="_blank">heiligerstein@gmail.com</a>> wrote:<br>
<br>
> I'm working in tests for my msc thesis envolving dm_cache module. I'm<br>
> having problems with the following scenario:<br>
><br>
> Slowstorage: RAID1 (mdadm) with 4 HDDs;<br>
> - /dev/md/raid1_4ssds<br>
<br>
</span>You mean /dev/md/raid1_4hdds ?<br></blockquote><div><br></div></span><div>A symlink to raid1 created using 4 ssds.</div><div><br></div><div>mdadm --create --verbose /dev/md/raid0_4ssds --raid-devices=4 --force --level=1 /dev/sdd /dev/sdc /dev/sdb /dev/sda<br></div><span><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<span><br>
> -- /dev/sda<br>
> -- /dev/sdb<br>
> -- /dev/sdc<br>
> -- /dev/sdd<br>
><br>
> Faststorage: RAID1 (mdadm) with 4 SSDs<br>
> - /dev/md/raid1_4hdds<br>
<br>
</span>And /dev/md/raid1_4ssds here?<br></blockquote><div><br></div></span><div>mdadm --create --verbose /dev/md/raid0_4hdds --raid-devices=4 --force --level=1  /dev/sdh /dev/sdg /dev/sdf /dev/sde<br></div><span><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<span><br>
> -- /dev/sde<br>
> -- /dev/sdf<br>
> -- /dev/sdg<br>
> -- /dev/sdh<br>
><br>
><br>
> Cachestorage: dm_cache envolving both devices<br>
> - /dev/mapper/dmcache<br>
> -- /dev/md/raid1_4ssds<br>
> -- /dev/md/raid1_4hdds<br>
><br></span></blockquote><div><br></div></span><div>Commands:</div><div>vgcreate cache /dev/md/raid0_4ssds -y<br></div><div><div>lvcreate cache -n metadata -l 5%FREE<br></div><div>lvcreate cache -n block -l 100%FREE<br></div><div>dd if=/dev/zero of=/dev/cache/metadata bs=1M count=100<br></div><div># 16773120 = blockdev --getsize /dev/md/raid0_4hdds<br></div><div>dmsetup create dmcache --table '0 16773120 cache /dev/cache/metadata /dev/cache/block /dev/md/raid0_4hdds 512 1 writeback default 0'</div></div><span><div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><span>
> Other informations (strange facts):<br>
> In RAID0 it's working very well.<br>
> In a virtual machine (vbox) it's working as well (in this case disks have<br>
> 2GB only for big tests automatization, in production are 160GB SSDs and 2TB<br>
> HDDs);<br>
><br>
> Have you seen about this error? Syslog is bellow.<br>
<br>
</span>Never seen this before... have you taken care to zero the dm-cache<br>
metadata's superblock (first 512B of the cache metadata device) each<br>
time you've reconfigured the cache device?<br>
<br>
Have you tried using the latest lvm2 to create the dm-cache device?<br>
</blockquote></span></div><br></div><div class="gmail_extra">I've used LVM2 from distribution (debian) and a latest kernel version.</div><div class="gmail_extra"><br></div><div class="gmail_extra">LVM2 latest today is 2.02.112 (I'll try with latest LVM2 version and post results).</div><div class="gmail_extra"><br></div><div class="gmail_extra"><div class="gmail_extra"># lvm version</div><div class="gmail_extra">  LVM version:     2.02.95(2) (2012-03-06)</div><div class="gmail_extra">  Library version: 1.02.74 (2012-03-06)</div><div class="gmail_extra">  Driver version:  4.27.0</div><div><br></div><div><div># uname -a</div><div>Linux steinhager 3.17.2 #2 SMP Fri Nov 7 12:49:16 BRST 2014 x86_64 GNU/Linux</div></div></div></div>
</blockquote></div><br></div>
</div></div></blockquote></div><br></div>