TiKV内存占用不均衡

【 TiDB 使用环境】生产环境
作为一个初学者,有以下问题请教大家,先感谢大家的答复 :pray:

tikv节点初始有3个节点,各节点负载均衡,每个节点mem占用持平都是17G左右,由于数据频繁更新,导致磁盘io繁忙时间占比总是很高。增加了两个节点进行扩容,等数据均衡后,最开始的三个节点men占用高达31G,不应该变小吗,反而变得更大了,这是什么原因?要如何优化调整?

store region score 每个节点都是58w左右

REGION_WEIGHT 分别是多少?

磁盘是SSD么?扩容之后,grafana里leader副本分布均匀么?排查过热点么?


这样查询

SSD,扩容后分布是均衡的

都是1

这个是评分不是分布,登录grafana,在PD视图下看看balance下leader的分布情况吧。另外看看empty是不是很多。


确实是一致在均衡 :flushed:看看下面有个score的图表,是不是评分也在变?之前遇到一种情况是节点均衡数据增加、资源紧张、调度出去、资源宽松、均衡数据增加……之后就一直循环,最后重启了一次就好了。


leader score基本是不变的,region score在变,但范围不大

在扩容结束之后已经重启过了