<div dir="ltr">Deleting from glusterfs or xfs direct is cost same time.<div>But glusterfs will stop all io request and hang all the cluster system. I do not what case this.</div><div>I think IO ops maybe different with local delete , glusterfs deleteing.</div></div><br><div class="gmail_quote"><div dir="ltr">On Thu, Nov 1, 2018 at 12:33 PM Achilles Gaikwad <<a href="mailto:agaikwad@redhat.com">agaikwad@redhat.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto">Just my two cents. Can you also test if deleting a file from glusterfs takes time or deleting it from xfs takes time? Xfs is known to take a long time deleting files which are fragmented or have holes within the files (sparse files). It would be helpful if sanity check could be done just to make sure that the file removal from xfs is causing issues. </div><br><div class="gmail_quote"><div dir="ltr">On Thu, 1 Nov, 2018, 2:23 AM Bryan Gurney <<a href="mailto:bgurney@redhat.com" target="_blank">bgurney@redhat.com</a> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">I recommend remounting the XFS filesystem without the online discard<br>
option (i.e.: without "-o discard"), and scheduling fstrim runs on the<br>
mountpoint.  On the first fstrim run, monitor the system to see if<br>
there's any more I/O stalls.<br>
<br>
<br>
Thanks,<br>
<br>
Bryan<br>
<br>
On Mon, Oct 29, 2018 at 10:52 PM, 劼磊周 <<a href="mailto:loli.miko@gmail.com" rel="noreferrer" target="_blank">loli.miko@gmail.com</a>> wrote:<br>
> 1. What is the version of the Linux kernel running on this system?<br>
>  linux 4.14 kenel. two set have different version.<br>
> one is  4.14.32<br>
> two is 4.14.68<br>
> 2. What type of storage device is the VDO volume stored on?  Is it<br>
> rotational (hard-disk drive), or nonrotational (flash storage,<br>
> solid-state drive)?  Does it use RAID (either hardware or software<br>
> RAID)?<br>
> two set has different disk<br>
> one 1T *8 raid5<br>
> two 8T * 10 raid6 and i add a bcache on it. (dell h730p raid card)<br>
> all above is in hardware raid.<br>
><br>
><br>
>  3. Can you run "dmsetup ls --tree -o ascii" and/or "lsblk -i" to show<br>
> the positioning of each element in the storage stack?<br>
> one is<br>
> dmsetup ls --tree -o ascii<br>
> sdc (253:3)<br>
>  `- (8:32)<br>
> vg00-lv01 (253:1)<br>
>  `- (8:2)<br>
> sdb (253:2)<br>
>  `- (8:16)<br>
> vg00-lv00 (253:0)<br>
>  `- (8:2)<br>
><br>
> NAME          MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT<br>
> sdb             8:16   0   2.7T  0 disk<br>
> `-sdb         253:2    0     4T  0 vdo  /exports/sdb<br>
> sdc             8:32   0   2.7T  0 disk<br>
> `-sdc         253:3    0     4T  0 vdo  /exports/sdc<br>
> sda             8:0    0 102.4G  0 disk<br>
> |-sda2          8:2    0 101.9G  0 part<br>
> | |-vg00-lv01 253:1    0  15.6G  0 lvm  [SWAP]<br>
> | `-vg00-lv00 253:0    0  86.2G  0 lvm  /<br>
> `-sda1          8:1    0   512M  0 part /boot<br>
><br>
> two is<br>
> dmsetup ls --tree -o ascii<br>
> image_store (253:3)<br>
>  `- (252:0)<br>
> centos-home (253:2)<br>
>  `- (8:34)<br>
> centos-swap (253:1)<br>
>  `- (8:34)<br>
> centos-root (253:0)<br>
>  `- (8:34)<br>
><br>
><br>
> NAME            MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT<br>
> sdb               8:16   0  372G  0 disk<br>
> `-bcache0       252:0    0 58.2T  0 disk<br>
>   `-image_store 253:3    0  116T  0 vdo  /exports/disk0<br>
> sdc               8:32   0  931G  0 disk<br>
> |-sdc2            8:34   0  930G  0 part<br>
> | |-centos-swap 253:1    0    4G  0 lvm  [SWAP]<br>
> | |-centos-home 253:2    0  876G  0 lvm  /home<br>
> | `-centos-root 253:0    0   50G  0 lvm  /<br>
> `-sdc1            8:33   0    1G  0 part /boot<br>
> sda               8:0    0 58.2T  0 disk<br>
> `-bcache0       252:0    0 58.2T  0 disk<br>
>   `-image_store 253:3    0  116T  0 vdo  /exports/disk0<br>
><br>
><br>
> On Tue, Oct 30, 2018 at 2:08 AM Bryan Gurney <<a href="mailto:bgurney@redhat.com" rel="noreferrer" target="_blank">bgurney@redhat.com</a>> wrote:<br>
>><br>
>> Thank you; these call traces are exactly what I was looking for.<br>
>><br>
>> If possible, can you provide a few more items of information about this<br>
>> system?<br>
>><br>
>> 1. What is the version of the Linux kernel running on this system?<br>
>> (i.e.: "uname -r")<br>
>><br>
>> 2. What type of storage device is the VDO volume stored on?  Is it<br>
>> rotational (hard-disk drive), or nonrotational (flash storage,<br>
>> solid-state drive)?  Does it use RAID (either hardware or software<br>
>> RAID)?<br>
>><br>
>> 3. Can you run "dmsetup ls --tree -o ascii" and/or "lsblk -i" to show<br>
>> the positioning of each element in the storage stack?<br>
>><br>
>><br>
>> Thanks,<br>
>><br>
>> Bryan<br>
>><br>
>> On Mon, Oct 29, 2018 at 2:51 AM, 劼磊周 <<a href="mailto:loli.miko@gmail.com" rel="noreferrer" target="_blank">loli.miko@gmail.com</a>> wrote:<br>
>> > hi bryan<br>
>> > Sorry for replay not in mail list.So in here.I to report again<br>
>> > For now the problem is where I delete big file in vdo with glusterfs all<br>
>> > io<br>
>> > request will be hang.<br>
>> > removing from local vdo mount. will not case this problem.<br>
>> ><br>
>> > this a two infomation from my two glusterfs.<br>
>> > I do not known why this will happen.<br>
>> ><br>
>> > Oct 29 06:42:40 image-store21003 kernel: sysrq: SysRq : Show Blocked<br>
>> > State<br>
>> > Oct 29 06:42:40 image-store21003 kernel:  task                        PC<br>
>> > stack   pid father<br>
>> > Oct 29 06:42:40 image-store21003 kernel: kworker/6:1H    D    0   958<br>
>> > 2<br>
>> > 0x80000080<br>
>> > Oct 29 06:42:40 image-store21003 kernel: Workqueue: xfs-log/dm-3<br>
>> > xfs_buf_ioend_work [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: Call Trace:<br>
>> > Oct 29 06:42:40 image-store21003 kernel: initializeCompletion+0x23/0x40<br>
>> > [kvdo]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: schedule+0x36/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: io_schedule+0x16/0x40<br>
>> > Oct 29 06:42:40 image-store21003 kernel: limiterWaitForOneFree+0x84/0xe0<br>
>> > [kvdo]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? remove_wait_queue+0x60/0x60<br>
>> > Oct 29 06:42:40 image-store21003 kernel: kvdoMapBio+0x164/0x270 [kvdo]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: vdoMapBio+0x12/0x20 [kvdo]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: __map_bio+0xc9/0x210 [dm_mod]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? dm_blk_close+0x70/0x70<br>
>> > [dm_mod]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > __send_changing_extent_only+0x115/0x159 [dm_mod]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ?<br>
>> > get_num_write_zeroes_bios+0x10/0x10 [dm_mod]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ?<br>
>> > dm_remap_zone_report+0x10/0x10<br>
>> > [dm_mod]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > __split_and_process_non_flush+0x240/0x270 [dm_mod]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > __split_and_process_bio+0x11b/0x270<br>
>> > [dm_mod]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: dm_make_request+0x7b/0xd0<br>
>> > [dm_mod]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > generic_make_request+0x110/0x2e0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: submit_bio+0x75/0x140<br>
>> > Oct 29 06:42:40 image-store21003 kernel: next_bio+0x38/0x40<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > __blkdev_issue_discard+0x13b/0x1e0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xlog_cil_committed+0x1d7/0x340<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xlog_state_do_callback+0x165/0x2b0<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xlog_state_done_syncing+0x72/0x90<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xlog_iodone+0x7d/0xb0 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_buf_ioend+0x9d/0x1e0 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_buf_ioend_work+0x15/0x20<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: process_one_work+0x157/0x380<br>
>> > Oct 29 06:42:40 image-store21003 kernel: worker_thread+0x4d/0x3e0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: kthread+0x109/0x140<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? max_active_store+0x80/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? __kthread_parkme+0xa0/0xa0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ret_from_fork+0x35/0x40<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfsaild/dm-3    D    0  9867<br>
>> > 2<br>
>> > 0x80000080<br>
>> > Oct 29 06:42:40 image-store21003 kernel: Call Trace:<br>
>> > Oct 29 06:42:40 image-store21003 kernel: __schedule+0x28a/0x870<br>
>> > Oct 29 06:42:40 image-store21003 kernel: schedule+0x36/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: _xfs_log_force+0x1b0/0x280<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? wake_up_q+0x80/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? xfsaild+0x19a/0x780 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_log_force+0x2c/0x80 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfsaild+0x19a/0x780 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: kthread+0x109/0x140<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ?<br>
>> > xfs_trans_ail_cursor_first+0x90/0x90 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? __kthread_parkme+0xa0/0xa0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ret_from_fork+0x35/0x40<br>
>> > Oct 29 06:42:40 image-store21003 kernel: glusteriotwr7   D    0 32733<br>
>> > 1<br>
>> > 0x00000080<br>
>> > Oct 29 06:42:40 image-store21003 kernel: Call Trace:<br>
>> > Oct 29 06:42:40 image-store21003 kernel: __schedule+0x28a/0x870<br>
>> > Oct 29 06:42:40 image-store21003 kernel: schedule+0x36/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: schedule_timeout+0x1e6/0x320<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? xlog_sync+0x2c9/0x3d0 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: __down_common+0xfc/0x132<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? _xfs_buf_find+0x2c1/0x510<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: __down+0x1d/0x1f<br>
>> > Oct 29 06:42:40 image-store21003 kernel: down+0x41/0x50<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_buf_lock+0x3c/0xf0 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: _xfs_buf_find+0x2c1/0x510 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_buf_get_map+0x2a/0x280<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ?<br>
>> > xfs_free_ag_extent+0x3be/0x7a0<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xfs_trans_get_buf_map+0x116/0x190<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_btree_get_bufs+0x5f/0x80<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xfs_alloc_fix_freelist+0x1f8/0x520<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xfs_free_extent_fix_freelist+0x75/0xc0 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_free_extent+0x5c/0x150<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xfs_trans_free_extent+0x4f/0x110<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? xfs_trans_add_item+0x5d/0x90<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xfs_extent_free_finish_item+0x26/0x40 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_defer_finish+0x13f/0x410<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xfs_itruncate_extents+0x127/0x2e0<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xfs_inactive_truncate+0xad/0x100<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_inactive+0xec/0x110 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_fs_destroy_inode+0xa4/0x210<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: destroy_inode+0x3b/0x60<br>
>> > Oct 29 06:42:40 image-store21003 kernel: evict+0x142/0x1a0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: iput+0x17d/0x1d0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: do_unlinkat+0x194/0x2b0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: SyS_unlink+0x16/0x20<br>
>> > Oct 29 06:42:40 image-store21003 kernel: do_syscall_64+0x73/0x1b0<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > entry_SYSCALL_64_after_hwframe+0x3d/0xa2<br>
>> > Oct 29 06:42:40 image-store21003 kernel: RIP: 0033:0x7fcbd64c9417<br>
>> > Oct 29 06:42:40 image-store21003 kernel: RSP: 002b:00007fcb8c3b6208<br>
>> > EFLAGS:<br>
>> > 00000246 ORIG_RAX: 0000000000000057<br>
>> > Oct 29 06:42:40 image-store21003 kernel: RAX: ffffffffffffffda RBX:<br>
>> > 00007fcb8c3b6250 RCX: 00007fcbd64c9417<br>
>> > Oct 29 06:42:40 image-store21003 kernel: RDX: 00007fcb8c3b6050 RSI:<br>
>> > 00007fcb8c3b6050 RDI: 00007fcb8c3b63d0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: RBP: 00007fcb7c047cf0 R08:<br>
>> > 65342d323362662d R09: 00007fcbd642516d<br>
>> > Oct 29 06:42:40 image-store21003 kernel: R10: 6532656634383938 R11:<br>
>> > 0000000000000246 R12: 00007fcb8c3b64c8<br>
>> > Oct 29 06:42:40 image-store21003 kernel: R13: 00007fcbc4008610 R14:<br>
>> > 00007fcb8c3b63d0 R15: 0000000000000000<br>
>> > Oct 29 06:42:40 image-store21003 kernel: kworker/2:3     D    0  2447<br>
>> > 2<br>
>> > 0x80000080<br>
>> > Oct 29 06:42:40 image-store21003 kernel: Workqueue: xfs-sync/dm-3<br>
>> > xfs_log_worker [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: Call Trace:<br>
>> > Oct 29 06:42:40 image-store21003 kernel: __schedule+0x28a/0x870<br>
>> > Oct 29 06:42:40 image-store21003 kernel: schedule+0x36/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: schedule_timeout+0x1e6/0x320<br>
>> > Oct 29 06:42:40 image-store21003 kernel: wait_for_completion+0x121/0x180<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? wake_up_q+0x80/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: flush_work+0x11d/0x1a0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? wake_up_worker+0x30/0x30<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xlog_cil_force_lsn+0x8d/0x210<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ?<br>
>> > generic_make_request+0x110/0x2e0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: _xfs_log_force+0x86/0x280 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ?<br>
>> > __bch_btree_node_write+0x340/0x660 [bcache]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? xfs_log_worker+0x36/0x100<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_log_force+0x2c/0x80 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_log_worker+0x36/0x100 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: process_one_work+0x157/0x380<br>
>> > Oct 29 06:42:40 image-store21003 kernel: worker_thread+0x4d/0x3e0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: kthread+0x109/0x140<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? max_active_store+0x80/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? __kthread_parkme+0xa0/0xa0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ret_from_fork+0x35/0x40<br>
>> > Oct 29 06:42:40 image-store21003 kernel: kworker/2:32    D    0 11430<br>
>> > 2<br>
>> > 0x80000080<br>
>> > Oct 29 06:42:40 image-store21003 kernel: Workqueue: xfs-cil/dm-3<br>
>> > xlog_cil_push_work [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: Call Trace:<br>
>> > Oct 29 06:42:40 image-store21003 kernel: __schedule+0x28a/0x870<br>
>> > Oct 29 06:42:40 image-store21003 kernel: schedule+0x36/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xlog_state_get_iclog_space+0x105/0x300 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? wake_up_q+0x80/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xlog_write+0x19d/0x6c0 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? kmem_zone_alloc+0xa4/0x110<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xlog_cil_push+0x28c/0x460 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? __switch_to_asm+0x34/0x70<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xlog_cil_push_work+0x15/0x20<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: process_one_work+0x157/0x380<br>
>> > Oct 29 06:42:40 image-store21003 kernel: worker_thread+0x1d8/0x3e0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: kthread+0x109/0x140<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? max_active_store+0x80/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? __kthread_parkme+0xa0/0xa0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ret_from_fork+0x35/0x40<br>
>> ><br>
>> ><br>
>> ><br>
>> > two is<br>
>> ><br>
>> > Oct 29 06:42:40 image-store21003 kernel: sysrq: SysRq : Show Blocked<br>
>> > State<br>
>> > Oct 29 06:42:40 image-store21003 kernel:  task                        PC<br>
>> > stack   pid father<br>
>> > Oct 29 06:42:40 image-store21003 kernel: kworker/6:1H    D    0   958<br>
>> > 2<br>
>> > 0x80000080<br>
>> > Oct 29 06:42:40 image-store21003 kernel: Workqueue: xfs-log/dm-3<br>
>> > xfs_buf_ioend_work [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: Call Trace:<br>
>> > Oct 29 06:42:40 image-store21003 kernel: initializeCompletion+0x23/0x40<br>
>> > [kvdo]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: schedule+0x36/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: io_schedule+0x16/0x40<br>
>> > Oct 29 06:42:40 image-store21003 kernel: limiterWaitForOneFree+0x84/0xe0<br>
>> > [kvdo]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? remove_wait_queue+0x60/0x60<br>
>> > Oct 29 06:42:40 image-store21003 kernel: kvdoMapBio+0x164/0x270 [kvdo]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: vdoMapBio+0x12/0x20 [kvdo]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: __map_bio+0xc9/0x210 [dm_mod]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? dm_blk_close+0x70/0x70<br>
>> > [dm_mod]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > __send_changing_extent_only+0x115/0x159 [dm_mod]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ?<br>
>> > get_num_write_zeroes_bios+0x10/0x10 [dm_mod]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ?<br>
>> > dm_remap_zone_report+0x10/0x10<br>
>> > [dm_mod]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > __split_and_process_non_flush+0x240/0x270 [dm_mod]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > __split_and_process_bio+0x11b/0x270<br>
>> > [dm_mod]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: dm_make_request+0x7b/0xd0<br>
>> > [dm_mod]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > generic_make_request+0x110/0x2e0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: submit_bio+0x75/0x140<br>
>> > Oct 29 06:42:40 image-store21003 kernel: next_bio+0x38/0x40<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > __blkdev_issue_discard+0x13b/0x1e0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xlog_cil_committed+0x1d7/0x340<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xlog_state_do_callback+0x165/0x2b0<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xlog_state_done_syncing+0x72/0x90<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xlog_iodone+0x7d/0xb0 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_buf_ioend+0x9d/0x1e0 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_buf_ioend_work+0x15/0x20<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: process_one_work+0x157/0x380<br>
>> > Oct 29 06:42:40 image-store21003 kernel: worker_thread+0x4d/0x3e0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: kthread+0x109/0x140<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? max_active_store+0x80/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? __kthread_parkme+0xa0/0xa0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ret_from_fork+0x35/0x40<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfsaild/dm-3    D    0  9867<br>
>> > 2<br>
>> > 0x80000080<br>
>> > Oct 29 06:42:40 image-store21003 kernel: Call Trace:<br>
>> > Oct 29 06:42:40 image-store21003 kernel: __schedule+0x28a/0x870<br>
>> > Oct 29 06:42:40 image-store21003 kernel: schedule+0x36/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: _xfs_log_force+0x1b0/0x280<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? wake_up_q+0x80/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? xfsaild+0x19a/0x780 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_log_force+0x2c/0x80 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfsaild+0x19a/0x780 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: kthread+0x109/0x140<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ?<br>
>> > xfs_trans_ail_cursor_first+0x90/0x90 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? __kthread_parkme+0xa0/0xa0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ret_from_fork+0x35/0x40<br>
>> > Oct 29 06:42:40 image-store21003 kernel: glusteriotwr7   D    0 32733<br>
>> > 1<br>
>> > 0x00000080<br>
>> > Oct 29 06:42:40 image-store21003 kernel: Call Trace:<br>
>> > Oct 29 06:42:40 image-store21003 kernel: __schedule+0x28a/0x870<br>
>> > Oct 29 06:42:40 image-store21003 kernel: schedule+0x36/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: schedule_timeout+0x1e6/0x320<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? xlog_sync+0x2c9/0x3d0 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: __down_common+0xfc/0x132<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? _xfs_buf_find+0x2c1/0x510<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: __down+0x1d/0x1f<br>
>> > Oct 29 06:42:40 image-store21003 kernel: down+0x41/0x50<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_buf_lock+0x3c/0xf0 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: _xfs_buf_find+0x2c1/0x510 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_buf_get_map+0x2a/0x280<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ?<br>
>> > xfs_free_ag_extent+0x3be/0x7a0<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xfs_trans_get_buf_map+0x116/0x190<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_btree_get_bufs+0x5f/0x80<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xfs_alloc_fix_freelist+0x1f8/0x520<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xfs_free_extent_fix_freelist+0x75/0xc0 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_free_extent+0x5c/0x150<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xfs_trans_free_extent+0x4f/0x110<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? xfs_trans_add_item+0x5d/0x90<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xfs_extent_free_finish_item+0x26/0x40 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_defer_finish+0x13f/0x410<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xfs_itruncate_extents+0x127/0x2e0<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xfs_inactive_truncate+0xad/0x100<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_inactive+0xec/0x110 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_fs_destroy_inode+0xa4/0x210<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: destroy_inode+0x3b/0x60<br>
>> > Oct 29 06:42:40 image-store21003 kernel: evict+0x142/0x1a0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: iput+0x17d/0x1d0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: do_unlinkat+0x194/0x2b0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: SyS_unlink+0x16/0x20<br>
>> > Oct 29 06:42:40 image-store21003 kernel: do_syscall_64+0x73/0x1b0<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > entry_SYSCALL_64_after_hwframe+0x3d/0xa2<br>
>> > Oct 29 06:42:40 image-store21003 kernel: RIP: 0033:0x7fcbd64c9417<br>
>> > Oct 29 06:42:40 image-store21003 kernel: RSP: 002b:00007fcb8c3b6208<br>
>> > EFLAGS:<br>
>> > 00000246 ORIG_RAX: 0000000000000057<br>
>> > Oct 29 06:42:40 image-store21003 kernel: RAX: ffffffffffffffda RBX:<br>
>> > 00007fcb8c3b6250 RCX: 00007fcbd64c9417<br>
>> > Oct 29 06:42:40 image-store21003 kernel: RDX: 00007fcb8c3b6050 RSI:<br>
>> > 00007fcb8c3b6050 RDI: 00007fcb8c3b63d0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: RBP: 00007fcb7c047cf0 R08:<br>
>> > 65342d323362662d R09: 00007fcbd642516d<br>
>> > Oct 29 06:42:40 image-store21003 kernel: R10: 6532656634383938 R11:<br>
>> > 0000000000000246 R12: 00007fcb8c3b64c8<br>
>> > Oct 29 06:42:40 image-store21003 kernel: R13: 00007fcbc4008610 R14:<br>
>> > 00007fcb8c3b63d0 R15: 0000000000000000<br>
>> > Oct 29 06:42:40 image-store21003 kernel: kworker/2:3     D    0  2447<br>
>> > 2<br>
>> > 0x80000080<br>
>> > Oct 29 06:42:40 image-store21003 kernel: Workqueue: xfs-sync/dm-3<br>
>> > xfs_log_worker [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: Call Trace:<br>
>> > Oct 29 06:42:40 image-store21003 kernel: __schedule+0x28a/0x870<br>
>> > Oct 29 06:42:40 image-store21003 kernel: schedule+0x36/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: schedule_timeout+0x1e6/0x320<br>
>> > Oct 29 06:42:40 image-store21003 kernel: wait_for_completion+0x121/0x180<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? wake_up_q+0x80/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: flush_work+0x11d/0x1a0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? wake_up_worker+0x30/0x30<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xlog_cil_force_lsn+0x8d/0x210<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ?<br>
>> > generic_make_request+0x110/0x2e0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: _xfs_log_force+0x86/0x280 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ?<br>
>> > __bch_btree_node_write+0x340/0x660 [bcache]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? xfs_log_worker+0x36/0x100<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_log_force+0x2c/0x80 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xfs_log_worker+0x36/0x100 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: process_one_work+0x157/0x380<br>
>> > Oct 29 06:42:40 image-store21003 kernel: worker_thread+0x4d/0x3e0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: kthread+0x109/0x140<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? max_active_store+0x80/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? __kthread_parkme+0xa0/0xa0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ret_from_fork+0x35/0x40<br>
>> > Oct 29 06:42:40 image-store21003 kernel: kworker/2:32    D    0 11430<br>
>> > 2<br>
>> > 0x80000080<br>
>> > Oct 29 06:42:40 image-store21003 kernel: Workqueue: xfs-cil/dm-3<br>
>> > xlog_cil_push_work [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: Call Trace:<br>
>> > Oct 29 06:42:40 image-store21003 kernel: __schedule+0x28a/0x870<br>
>> > Oct 29 06:42:40 image-store21003 kernel: schedule+0x36/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel:<br>
>> > xlog_state_get_iclog_space+0x105/0x300 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? wake_up_q+0x80/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xlog_write+0x19d/0x6c0 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? kmem_zone_alloc+0xa4/0x110<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xlog_cil_push+0x28c/0x460 [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? __switch_to_asm+0x34/0x70<br>
>> > Oct 29 06:42:40 image-store21003 kernel: xlog_cil_push_work+0x15/0x20<br>
>> > [xfs]<br>
>> > Oct 29 06:42:40 image-store21003 kernel: process_one_work+0x157/0x380<br>
>> > Oct 29 06:42:40 image-store21003 kernel: worker_thread+0x1d8/0x3e0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: kthread+0x109/0x140<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? max_active_store+0x80/0x80<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ? __kthread_parkme+0xa0/0xa0<br>
>> > Oct 29 06:42:40 image-store21003 kernel: ret_from_fork+0x35/0x40<br>
>> ><br>
>> ><br>
>> ><br>
>> > On Sat, Oct 27, 2018 at 3:01 AM Bryan Gurney <<a href="mailto:bgurney@redhat.com" rel="noreferrer" target="_blank">bgurney@redhat.com</a>> wrote:<br>
>> >><br>
>> >><br>
>> >><br>
>> >> On Fri, Oct 26, 2018 at 12:03 AM, 劼磊周 <<a href="mailto:loli.miko@gmail.com" rel="noreferrer" target="_blank">loli.miko@gmail.com</a>> wrote:<br>
>> >>><br>
>> >>><br>
>> >>><br>
>> >>> I have a big problem<br>
>> >>><br>
>> >>> I use glusterfs over vdo on xfs in case.<br>
>> >>> my vdo version<br>
>> >>> Kernel module:<br>
>> >>>   Loaded: true<br>
>> >>>   Name: kvdo<br>
>> >>>   Version information:<br>
>> >>>     kvdo version: 6.2.0.219<br>
>> >>><br>
>> >>> In my case We have many big file over than 500G some is 1T or 2T.<br>
>> >>> if it be deleteing. Vdo will hang all of io reqeust.<br>
>> >>> Some small file like 20g or 50g. if size over 100G. this problem will<br>
>> >>> be<br>
>> >>> very frequency.<br>
>> >>><br>
>> >>> this is come information on my system.I use iostat to record<br>
>> >>><br>
>> >>> your will see dev utils is 100% and it will hang all io request<br>
>> >>><br>
>> >>> iostats: dm-3 is vdo device<br>
>> >>><br>
>> >>> avg-cpu:  %user   %nice %system %iowait  %steal   %idle<br>
>> >>>            0.38    0.00   28.95    0.64    0.00   70.03<br>
>> >>><br>
>> >>> Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s<br>
>> >>> avgrq-sz avgqu-sz   await r_await w_await  svctm  %util<br>
>> >>> sdb               0.00   218.00    0.00 15055.00     0.00 61152.00<br>
>> >>> 8.12     0.54    0.04    0.00    0.04   0.03  49.00<br>
>> >>> sda               0.00   205.00    1.00 16104.00     8.00 65908.00<br>
>> >>> 8.19     0.78    0.05    0.00    0.05   0.04  70.00<br>
>> >>> sdc               0.00     4.00    0.00  125.00     0.00   644.00<br>
>> >>> 10.30     0.06    0.50    0.00    0.50   0.01   0.10<br>
>> >>> dm-0              0.00     0.00    0.00  129.00     0.00   644.00<br>
>> >>> 9.98     0.06    0.50    0.00    0.50   0.01   0.10<br>
>> >>> dm-1              0.00     0.00    0.00    0.00     0.00     0.00<br>
>> >>> 0.00     0.00    0.00    0.00    0.00   0.00   0.00<br>
>> >>> dm-2              0.00     0.00    0.00    0.00     0.00     0.00<br>
>> >>> 0.00     0.00    0.00    0.00    0.00   0.00   0.00<br>
>> >>> bcache0           0.00     0.00    0.00 15980.00     0.00 61144.00<br>
>> >>> 7.65     0.87    0.05    0.00    0.05   0.05  75.40<br>
>> >>> dm-3              0.00     0.00    0.00    0.00     0.00     0.00<br>
>> >>> 0.00     1.00    0.00    0.00    0.00   0.00 100.00<br>
>> >>><br>
>> >>> avg-cpu:  %user   %nice %system %iowait  %steal   %idle<br>
>> >>>            0.51    0.00   29.62    0.76    0.00   69.11<br>
>> >>><br>
>> >>> Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s<br>
>> >>> avgrq-sz avgqu-sz   await r_await w_await  svctm  %util<br>
>> >>> sdb               0.00   193.00    0.00 15245.00     0.00 61764.00<br>
>> >>> 8.10     0.53    0.03    0.00    0.03   0.03  49.90<br>
>> >>> sda               0.00   192.00    1.00 16268.00     4.00 66512.00<br>
>> >>> 8.18     0.77    0.05    0.00    0.05   0.04  69.60<br>
>> >>> sdc               0.00     0.00    0.00    0.00     0.00     0.00<br>
>> >>> 0.00     0.00    0.00    0.00    0.00   0.00   0.00<br>
>> >>> dm-0              0.00     0.00    0.00    0.00     0.00     0.00<br>
>> >>> 0.00     0.00    0.00    0.00    0.00   0.00   0.00<br>
>> >>> dm-1              0.00     0.00    0.00    0.00     0.00     0.00<br>
>> >>> 0.00     0.00    0.00    0.00    0.00   0.00   0.00<br>
>> >>> dm-2              0.00     0.00    0.00    0.00     0.00     0.00<br>
>> >>> 0.00     0.00    0.00    0.00    0.00   0.00   0.00<br>
>> >>> bcache0           0.00     0.00    0.00 16137.00     0.00 61756.00<br>
>> >>> 7.65     0.88    0.05    0.00    0.05   0.05  74.60<br>
>> >>> dm-3              0.00     0.00    0.00    0.00     0.00     0.00<br>
>> >>> 0.00     1.00    0.00    0.00    0.00   0.00 100.00<br>
>> >>><br>
>> >>> avg-cpu:  %user   %nice %system %iowait  %steal   %idle<br>
>> >>>            0.39    0.00   28.35    0.64    0.00   70.62<br>
>> >>><br>
>> >>> Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s<br>
>> >>> avgrq-sz avgqu-sz   await r_await w_await  svctm  %util<br>
>> >>> sdb               0.00   143.00    0.00 15014.00     0.00 60648.00<br>
>> >>> 8.08     0.54    0.04    0.00    0.04   0.03  50.20<br>
>> >>> sda               0.00   142.00    1.00 15996.00     4.00 65224.00<br>
>> >>> 8.16     0.74    0.05    0.00    0.05   0.04  67.30<br>
>> >>> sdc               0.00     0.00    0.00    0.00     0.00     0.00<br>
>> >>> 0.00     0.00    0.00    0.00    0.00   0.00   0.00<br>
>> >>> dm-0              0.00     0.00    0.00    0.00     0.00     0.00<br>
>> >>> 0.00     0.00    0.00    0.00    0.00   0.00   0.00<br>
>> >>> dm-1              0.00     0.00    0.00    0.00     0.00     0.00<br>
>> >>> 0.00     0.00    0.00    0.00    0.00   0.00   0.00<br>
>> >>> dm-2              0.00     0.00    0.00    0.00     0.00     0.00<br>
>> >>> 0.00     0.00    0.00    0.00    0.00   0.00   0.00<br>
>> >>> bcache0           0.00     0.00    0.00 15830.00     0.00 60648.00<br>
>> >>> 7.66     0.87    0.05    0.00    0.05   0.05  73.30<br>
>> >>> dm-3              0.00     0.00    0.00    0.00     0.00     0.00<br>
>> >>> 0.00     1.00    0.00    0.00    0.00   0.00 100.00<br>
>> >>><br>
>> >>><br>
>> >>> top info<br>
>> >>><br>
>> >>> Tasks: 1929 total,   2 running, 140 sleeping,   0 stopped,   0 zombie<br>
>> >>> %Cpu(s):  2.8 us, 17.0 sy,  0.0 ni, 71.7 id,  8.0 wa,  0.0 hi,  0.4<br>
>> >>> si,<br>
>> >>> 0.0 st<br>
>> >>> KiB Mem : 13158505+total,  7327428 free, 10939488+used, 14862756<br>
>> >>> buff/cache<br>
>> >>> KiB Swap:  4194300 total,  4194300 free,        0 used.  8015328 avail<br>
>> >>> Mem<br>
>> >>><br>
>> >>>   PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+<br>
>> >>> COMMAND<br>
>> >>>  2144 root      20   0       0      0      0 S  19.8  0.0   3767:26<br>
>> >>> kvdo0:journalQ<br>
>> >>>  2150 root      20   0       0      0      0 S  15.8  0.0   4701:00<br>
>> >>> kvdo0:physQ0<br>
>> >>> 18560 root      20   0 2429296  40120   9004 S  12.2  0.0   1585:55<br>
>> >>> glusterfsd<br>
>> >>>  2161 root      20   0       0      0      0 R  11.2  0.0   3579:51<br>
>> >>> kvdo0:cpuQ0<br>
>> >>>  2162 root      20   0       0      0      0 S  11.2  0.0   3572:51<br>
>> >>> kvdo0:cpuQ1<br>
>> >>> 17807 root       0 -20       0      0      0 D  10.2  0.0 109:02.36<br>
>> >>> kworker/5:0H<br>
>> >>>  2146 root      20   0       0      0      0 S   7.6  0.0   1678:45<br>
>> >>> kvdo0:logQ0<br>
>> >>>  2147 root      20   0       0      0      0 S   7.3  0.0   1674:34<br>
>> >>> kvdo0:logQ1<br>
>> >>>  2148 root      20   0       0      0      0 S   7.3  0.0   1674:09<br>
>> >>> kvdo0:logQ2<br>
>> >>>  2149 root      20   0       0      0      0 S   7.3  0.0   1672:51<br>
>> >>> kvdo0:logQ3<br>
>> >>> 18567 root      20   0 2369988  31936   9068 S   5.9  0.0 483:05.83<br>
>> >>> glusterfsd<br>
>> >>>  2145 root      20   0       0      0      0 S   4.0  0.0   1572:49<br>
>> >>> kvdo0:packerQ<br>
>> >>>  2151 root      20   0       0      0      0 S   4.0  0.0   1446:38<br>
>> >>> kvdo0:hashQ0<br>
>> >>>  2152 root      20   0       0      0      0 S   4.0  0.0   1442:42<br>
>> >>> kvdo0:hashQ1<br>
>> >>>  2156 root      20   0       0      0      0 S   2.6  0.0 798:50.26<br>
>> >>> kvdo0:bioQ0<br>
>> >>>  2157 root      20   0       0      0      0 S   2.6  0.0 779:48.42<br>
>> >>> kvdo0:bioQ1<br>
>> >>>  2158 root      20   0       0      0      0 S   2.6  0.0 778:43.52<br>
>> >>> kvdo0:bioQ2<br>
>> >>>  2159 root      20   0       0      0      0 S   2.6  0.0 776:37.81<br>
>> >>> kvdo0:bioQ3<br>
>> >>>  2160 root      20   0       0      0      0 S   2.6  0.0 974:01.15<br>
>> >>> kvdo0:ackQ<br>
>> >>><br>
>> >>><br>
>> >>> --<br>
>> >>> zhou-jielei<br>
>> >>><br>
>> >>><br>
>> >><br>
>> >> Hello,<br>
>> >><br>
>> >> In your "top" output, there is a process "kworker/5:0H" with a status<br>
>> >> of<br>
>> >> "D" (uninterruptible sleep).  If you send "w" to /proc/sysrq-trigger,<br>
>> >> it<br>
>> >> will show the "SysRq : Show Blocked State" output to print a call trace<br>
>> >> on<br>
>> >> the blocked task.<br>
>> >><br>
>> >> (There may already be a call trace in a "task ... blocked for more than<br>
>> >> ... seconds" message in the kernel messages for this system.)<br>
>> >><br>
>> >> However, as noted in your github issue, you set the "discards_limit"<br>
>> >> for<br>
>> >> this VDO volume (in the sysfs setting<br>
>> >> /sys/kvdo/<vdoname>/discards_limit)<br>
>> >> from the default of 1500 to 100.  While this will allow for more I/O<br>
>> >> operations for non-discard operations, it will result in slower discard<br>
>> >> performance.<br>
>> >><br>
>> >> You can adjust the "discards_limit" setting while the VDO volume is<br>
>> >> running.  If you set it back to 1500, does the discard performance<br>
>> >> improve?<br>
>> >><br>
>> >> Additionally, I posted a vdo-devel list email on different strategies<br>
>> >> for<br>
>> >> discards [1].  Depending on the level of filesystem activity (and the<br>
>> >> size<br>
>> >> and/or frequency of the files being discarded), it may be better to use<br>
>> >> a<br>
>> >> "scheduled fstrim" approach, instead of "mount -o discard".<br>
>> >><br>
>> >><br>
>> >> Thanks,<br>
>> >><br>
>> >> Bryan Gurney<br>
>> >> Senior Software Engineer, VDO<br>
>> >> Red Hat<br>
>> >><br>
>> >> [1]<br>
>> >> <a href="https://www.redhat.com/archives/vdo-devel/2018-February/msg00009.html" rel="noreferrer noreferrer" target="_blank">https://www.redhat.com/archives/vdo-devel/2018-February/msg00009.html</a><br>
>> ><br>
>> ><br>
>> ><br>
>> > --<br>
>> >                                                               周劼磊<br>
>> ><br>
><br>
><br>
><br>
> --<br>
>                                                               周劼磊<br>
><br>
<br>
_______________________________________________<br>
Vdo-devel mailing list<br>
<a href="mailto:Vdo-devel@redhat.com" rel="noreferrer" target="_blank">Vdo-devel@redhat.com</a><br>
<a href="https://www.redhat.com/mailman/listinfo/vdo-devel" rel="noreferrer noreferrer" target="_blank">https://www.redhat.com/mailman/listinfo/vdo-devel</a><br>
</blockquote></div>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature">                                                              周劼磊<br>                                        </div>