4个tikv节点store zise、leader大小差不多,有三个节点的region大小差不多、一个节点的region明显很小--内存使用也少

【 TiDB 使用环境】生产环境 /测试/ Poc
生产环境
【 TiDB 版本】
v6.1.0
【复现路径】做过哪些操作出现的问题
region很小的节点是之前出过问题的节点,缩容后又重新扩容进来的
【遇到的问题:问题现象及影响】
大家帮我分析下什么原因,怎么解决------让各节点比较均衡
【资源配置】
【附件:截图/日志/监控】


这个节点是什么时候扩容进来的?

10天左右了,这个状态也有一周左右了

select store_id,address,region_weight from information_schema.tikv_store_status

图片

  1. PD–region health 监控贴下
  2. 是混部吗?有没有label
1 个赞

图片
不是混部

pd-ctl store weight store_id xx xx 可以把少的那个的region weight 调高一些看看 ,具体命令–help看下。

从 可用空间看 空间占用大小是均衡的状态,region的均衡是调整的存储空间大小不是region数量。可能有些region比较大,可以看下 tikv troubleshoot页的huge region

  1. empty region 228K,干掉能干掉的空region
  2. learner 20.9K,感觉像是还在均衡中

我记得是哪个版本之前,计算score时只看存储
后来到了哪个版本,region数量过多也会影响score
记不清了 :sleepy:

tikv troubleshoot页的huge region是指监控还是官方文档?

我研究下

经常truncate drop吗 ,你把region health的时间拉长 看看是不是下降的趋势

有些计算数据表每天会truncate

这样每天都会产生大量空region ,gc时间多久

图片

跨表合并region是不是关闭了?
enable-cross-table-merge

图片

region health的时间范围拉长 看看是不是有下降的趋势或者下降上升的波动,如果有说明合并工作正常,每天truncate这问题没法避免,另外有tiflash的话会影响合并,因为tiflash是不能跨表共享region