【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【附件:截图/日志/监控】
【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【附件:截图/日志/监控】
我是扩容tikv节点的,不是缩容
一样的,都是为了加快balance进度
主要是调整store limit
config SET leader-SCHEDULE-LIMIT 64
config SET replica-SCHEDULE-LIMIT 80
store LIMIT ALL 5
其实就这三个就行
集群2.2tb的数据哦。
都调整了,目前主要是region count 比较慢
我也觉得主要还是磁盘压力问题
2.2t的数据如果同步一天能完成那就是正常速度。我们这边扩缩容基本上就是这个速度。
是24小时嘛
不一定24小时,12小时以上吧,头天开始搞,第二天去看看基本上搞完了。就是标准的store limit =15 这种的,对业务影响比较小。
磁盘IO无压力,内存,CPU这些都没有问题
就是特别慢,
调整了
max-pending-peer-count 1024
region-schedule-limit 512
store-banlance-rate 30
max-snapshot-count 32
store LIMIT ALL 200
目前看来数据均衡需要三天
这种还有其他参数要配置吗
我一般会把 store LIMIT 调整到10000000,我觉得200太小了
慢,就再调大点
取决于对你业务的影响度,只要不怕影响业务,在允许的取值范围内,往上调就行了
这么大?有没有一个上限值呢?
增大store limit
其实是调整到合适的就行。比如多次增加store limit,直到对集群有影响了就不能增加了。我操作的时候虽然会把store limit调整的很大,但是其他参数我都调整的不大,所以一样会限制region的迁移速度,不会对集群有太大的影响