<br><br><div class="gmail_quote">On Wed, Jan 26, 2011 at 12:27 PM, nishant mungse <span dir="ltr"><<a href="mailto:nishantmungse@gmail.com">nishantmungse@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div><div></div><div class="h5"><br><br><div class="gmail_quote">On Tue, Jan 25, 2011 at 9:23 PM, Malahal Naineni <span dir="ltr"><<a href="mailto:malahal@us.ibm.com" target="_blank">malahal@us.ibm.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Jun'ichi Nomura [<a href="mailto:j-nomura@ce.jp.nec.com" target="_blank">j-nomura@ce.jp.nec.com</a>] wrote:<br>
> >> Defaults are layered. For current minio, we have :<br>
> >> [1] one top level default (hardcoded, superseded by config)<br>
> >> [2] per hardware default (hardcoded, superseded by config)<br>
> >> [3] per multipath value (none hardcoded, defined by config)<br>
> >><br>
> >> You suggest multipath-tools to adapt only the top level minio default<br>
> >> depending on dm-rq availability [1], but what of the hwtable defaults<br>
> >> [2] ? Should we provide vendors with a way to describe a with-rq minio<br>
> >> default *and* a without-rq minio default (a new parameter in the hwentry<br>
> >> struct) ? If so, we should also provide a new config file keyword to<br>
> >> override this new hwentry parameter hardcoded value ... then the<br>
> >> reasoning cascades to the mpentry struct minio setting [3].<br>
> >><br>
> >> Actually, [1] is hardly the common case : only unknown hardware resort<br>
> >> to these defaults.<br>
><br>
> Do we really need [2]?<br>
><br>
> Currently, there seem only 3 minio values in per-hardware default:<br>
>   - 1000 (DEFAULT_MINIO)<br>
>   - 128<br>
>   - 100<br>
><br>
> I think both 128 and 100 are based on that, in many systems/cases,<br>
> max request size (max_sectors) is 512KB and BIO submission<br>
> is done in page-size unit (4KB).<br>
><br>
> If there isn't strong reason for the current default (1000)<br>
> (and I think there isn't), it seems we can remove [2]<br>
> after changing the default to 128 (or 100).<br>
><br>
> > 1. Set DEFAULT_MINIO to -1<br>
> > 2. If bio based mapping and the value is -1, set it to 1000<br>
> >    (DEFAULT_BIO_MINIO)<br>
> > 3. If request based mapping, set it to DEFAULT_REQUEST_MINIO.<br>
><br>
> Does it mean users can't change rr_min_io value for request-based dm?<br>
> I suspect it is possible that someone wants to set non-default<br>
> value to minio for request-based dm.<br>
<br>
Your reading is correct that my proposal doesn't allow it. If we get away<br>
with [2] above (hwatable.c based values), then we can have something<br>
like this:<br>
<br>
1. Remove it from hwentry structure or set it to -1<br>
2. If rr_minio is specified in the conf file (either through default or<br>
   device section etc), use it.<br>
3. If not specified in the config file, use DEFAULT_BIO_MINIO or<br>
   DEFAULT_REQUEST_MINIO based on the multipath module version.<br>
<br>
In other words, every device out there uses DEFAULT_BIO_MINIO or<br>
DEFAULT_REQUEST_MINIO if not specified by the administrator.<br>
Admin can override it in /etc/multipath.conf file.<br>
<br>
CON: No per device controller default  (aka hwtable entry value)<br>
<br>
Thanks, Malahal.<br>
<font color="#888888"><br>
--<br>
dm-devel mailing list<br>
<a href="mailto:dm-devel@redhat.com" target="_blank">dm-devel@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/dm-devel" target="_blank">https://www.redhat.com/mailman/listinfo/dm-devel</a><br>
</font></blockquote></div><br><br></div></div>hello all,<br><br>
There is one doubt regarding the dm-raid1. As far as i know, in
dm-raid1 the data is written parallelly  on all the mirrors of
mirrorset and if any of the mirror fails to write the data then
dm-mirror adds this mirror to fail list by increasing the error count
in "fail mirror" function in dm-raid1. <br>
Actually my doubt is where this error count is decremented? i.e after
kcpyd or before and where exactly this error count is decremented?<br><br>Regards,<br><font color="#888888">Nishant.<br></font></blockquote><div><br><br><br>Hi,<br><br>I've created a device mapper target and I wanna test its read and<br>
write mechanisms. I created a device using this target and tried to<br>write a filesystem on to the device.<br><br>My target is creating roughly two outgoing bios per incoming bio.<br>Which is maybe why I'm not able to get a proper log after running the<br>
mke2fs command as while writing the filesystem, there are massive<br>amounts of writes performed on the device.<br><br>So, I tried to use the cat command to directly write to the device<br>file. The write is being performed for sure because I'm able to view<br>
the data written to the underlying device.<br><br>But there is no output when I try to read the device file contents using cat.<br><br>Is there any other way to test the read/write workflows of a dm target<br>that can give out a proper log ?<br>
<br>Regards,<br>Nishant. <br></div></div><br>