tikv 的other io 包含哪些IO

tikv detail中的IO break down 中读IO监控中other io 占到了一半

snapshot没有明显活动

这个问题是这样
1、有一个tikv(v7.5.1)的IO 偶尔会被打的比较高,普通ssd

image

2、检查了io breakdown , 发现读IO中other io比较高,见开始的2张图

3、15:15左右将一个主要监控数据insert写入的程序指向了另一套8.1.1版 ,原来的v7.5.1集群的没有出现过IO打满的情况, other io 也降到k级别。

4、检查8.1.1集群 IO 发现IO 没有像原来那样高

5、检查v7.5.1集群改程序的sql,虽然有些select但都是毫秒级的,应该不会引起1GB+的读流量 ,也没有搜到慢SQL , IO高的磁盘 仅tikv使用。

6、 v7.5.1的 unifeid read pool的 task数量和read io增高基本一致。这些应该和另一个程序的select有关
image

问题:
1、 io breakdown中other io 包含哪些具体的IO统计?
2、 迁移insert程序后 other/foreground_write的读IO下降,迁移到新的8.1.1后也没有对应增长,如果是热点region 集中在那一个tikv的话 ,无论是写入还是读取 有foreground_write/foreground_read 两个统计,应该也不是热点region问题?

另外一套 写入量比较高的7.5.4 read other也比较低

1 个赞

other 包含 tikv 中其他的读流量,就是这个面板中没显示的流量,不太好判断具体是什么
这个面板中 ForegroundWrite 是用户写入,read 是用户读取,level_zero_compaction 是 rocksdb l0 compaction 流量,LoadBalance 是 region 调度导致的流量,flush 是 rocksdb flush memtable 的流量。

可以通过 grpc 或者 coprocessor 面板看下other io 高的集群 有没有其他的流量比较高

1 个赞