TIKV节点扩容后资源使用不平衡

为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:

【TiDB 版本】
4.0

【问题描述】
近期对TIKV做了扩容,新增了2个节点,但是新增的2个节点CPU、内存使用率和老的三个节点相比相差太大,是否存在什么问题?该怎么设置才能做到平衡?希望解答一下,谢谢



新增的两个节点的物理配置和以前是一样的吗?
麻烦看一下 dashboard 中的热力图。是否存在热点问题。

麻烦再到 pd 的 dashboard 里面看一下 region leader 的分布情况

另外,扩容以后以后每个节点的参数是一致的吗。麻烦使用 edit-config 看一下每个 tikv 节点的 参数。比如 block cache。

因为是测试环境,是没有数据读写的,没有发现读写热点问题,新增的节点物理配置都是和之前一样的。
这是region和leader分布情况

TIKV配置都是默认的,没有修改过,这是配置情况。142和143是新增的

麻烦帮忙反馈下 tiup ctl pd 里的 store 信息, 同时帮忙反馈下 grafana 监控里的 pd 监控,多谢。

问一下,如果扩容的TIKV节点配置和以前不一样会有什么影响吗?

会导致leader和region数量不均衡,可以参考文档调整参数,比如 region weight
https://docs.pingcap.com/zh/tidb/stable/pd-scheduling-best-practices#负载均衡

好的,感谢

:handshake: