<div dir="ltr">Hi Team!<br>A very good day to you.<div><br>I have a lvm cache setup with 14TB cache on a origin device that is 110TB.</div><div>The cache was configured with 1MB cache blocks, and 100MB migration bandwidth/smq policy/writeback. This setup has a large memory and high cpu count, so we relaxed the allocation/cache_pool_max_chunks to accommodate this. The setup was stable until the cache got full of dirty blocks.</div><div>Under some cases, cache target seems to block submitted IO and only do migration and all IO that's incoming seems to be very slow. <br>Does the cache target have a scenario where this may happen when the cache is full of dirty blocks?</div><div><br></div><div>It looks like the migration bandwidth was underprovisioned as the cache got full of dirty blocks. Now I am trying to flush the cache and bring down the dirty block count on a live setup. Below are some options I tried and would like feedback to know what's the best way to bring down the dirty blocks without taking down the node. <br><br></div><div><br></div><div>1/ increase migration threshold to a larger value 1600 MB.</div><div>2/ change cache policy to cleaner</div><div><div><br></div><div>Do these change take effect on the fly?</div><div></div></div><div>I do not seem to see the dirty block count drop significantly.</div><div><br>Can you please point me how to bring down the dirty block count immediately on a live setup? <br><br>Thanks for your help.</div><div>Regards</div><div>LN</div><div><br></div></div>