扩容TiDB的tikv节点后,新增的tikv数据节点数据均衡很慢,有没有加速的办法?

【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】

【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【附件:截图/日志/监控】

可以参考下这里调整几个参数
专栏 - 生产环境TiDB集群缩容TiKV操作步骤 | TiDB 社区

1 个赞

我是扩容tikv节点的,不是缩容

一样的,都是为了加快balance进度
主要是调整store limit

1 个赞

config SET leader-SCHEDULE-LIMIT 64
config SET replica-SCHEDULE-LIMIT 80
store LIMIT ALL 5
其实就这三个就行

嫌慢可以再调大点
1 个赞

集群2.2tb的数据哦。

都调整了,目前主要是region count 比较慢

我也觉得主要还是磁盘压力问题

2.2t的数据如果同步一天能完成那就是正常速度。我们这边扩缩容基本上就是这个速度。

是24小时嘛

不一定24小时,12小时以上吧,头天开始搞,第二天去看看基本上搞完了。就是标准的store limit =15 这种的,对业务影响比较小。

磁盘IO无压力,内存,CPU这些都没有问题

就是特别慢,
调整了
max-pending-peer-count 1024
region-schedule-limit 512
store-banlance-rate 30
max-snapshot-count 32
store LIMIT ALL 200
目前看来数据均衡需要三天

这种还有其他参数要配置吗

我一般会把 store LIMIT 调整到10000000,我觉得200太小了 :joy:

1 个赞

慢,就再调大点

取决于对你业务的影响度,只要不怕影响业务,在允许的取值范围内,往上调就行了 :smiling_imp:

这么大?有没有一个上限值呢?

增大store limit

其实是调整到合适的就行。比如多次增加store limit,直到对集群有影响了就不能增加了。我操作的时候虽然会把store limit调整的很大,但是其他参数我都调整的不大,所以一样会限制region的迁移速度,不会对集群有太大的影响