扩容3台kv节点。 如何加快region数据均衡

【 TiDB 使用环境`】生产环境
【 TiDB 版本】v5.4.0
【遇到的问题】kv磁盘空间不足,新增3台kv实例。 但是region迁移非常慢
已调整leader-schedule-limit为400,region-schedule-limit为20480000
效果不是很明显。

1、 生产端还增加下面2个
max-pending-peer-count
max-snapshot-count
2、消费端增加 store limit
pd-ctl store limit all xxxx
3|、region迁移等要生产snapshot并通过网络发送到目标tikv,会对网络 IO CPU有较大影响

store limit all 好像最大值是200吧。 我刚试了一下,1500,提示
» store limit all 1500
rate should less than 200.000000 for all

提示了 那就是了

好的,谢谢 我先调整一下,观察一下

调大max-pending-peer-count
max-snapshot-count
这两个参数,会占旧kv的磁盘空间吗?
我现在调整以下参数
config set leader-schedule-limit 400
config set region-schedule-limit 20480000
config set max-pending-peer-count 64000
config set max-snapshot-count 64000
store limit all 200
旧的3个kv实例,磁盘空间还是在增加,剩余空间在减少

生成snapshot file,接收snapshot 都会占磁盘空间 ,你这设置太高了

改成多大比较合适呢?

该主题在最后一个回复创建后60天后自动关闭。不再允许新的回复。