br restore数据,TIKV某节点数据严重不均衡

【 TiDB 使用环境】生产环境
【 TiDB 版本】
Cluster version: v4.0.9
【遇到的问题:问题现象及影响】
部署新TIDB集群,把老集群中的数据BR备份,然后restore到新集群。在restore过程中,发现某个tikv节点的数据存储和其他节点严重不均衡。
就是如下图:192.168.241.74节点的region数量非常少。 这几个tikv的硬件包括存储配置完全一样的。很奇怪为啥会出现这个问题,想请教下这问题怎么排查,谢谢~


以下是这个节点的一点tikv 日志:

这几个TIKV节点是完全相同的配置,为啥打分会差这么多? 这说明了什么

有好多空region啊,是因为这个导致的吗?

看看调度设置吧,你这个感觉像是调度停了。

// Schedulers represent region/leader schedulers which can impact on performance.
Schedulers = map[string]struct{}{
“balance-leader-scheduler”: {},
“balance-hot-region-scheduler”: {},
“balance-region-scheduler”: {}
}

1 个赞

虽然不是很确定,但现在开始均衡数据了,可能是由于那些空region导致的。 那个异常的节点评分确实是低

我是用的4.0.9版本,默认是没有打开自动清理空region的。打开就好了

此话题已在最后回复的 60 天后被自动关闭。不再允许新回复。