扬仔_tidb
(Ti D Ber I Ruk U8 Tg)
2023 年8 月 1 日 10:04
1
【 TiDB 使用环境】生产环境
【 TiDB 版本】 5.3.0
【遇到的问题:问题现象及影响】
背景:
旧的tikv服务器磁盘有问题,打算平滑替换,于是加入新节点替换旧节点的方案
新旧机器配置和现状
原tkv三个节点,每个节点有140万region,新扩容的节点是16c/32g配置,现在在平衡的过程中新节点cpu使用率才7%,旧tikv节点cpu使用率 50%
按现在的速度估算得37天才能平衡完成
问题
有没有什么参数可以加快region平衡的,集群晚上空闲可以调大,白天再调小这个参数
另外,在平衡的过程中如果集群性能下降太厉害,能暂停region迁移吗?
zhanggame1
(Ti D Ber G I13ecx U)
2023 年8 月 1 日 10:11
2
select * from INFORMATION_SCHEMA.CLUSTER_CONFIG t
where t.KEY
like ‘%schedule-limit%’
可以看到pd调度配置
把 leader-schedule-limit 默认4,region-schedule-limit默认2048调大些。
修改命令:
set config pd schedule.leader-schedule-limit
=8;
set config pd schedule.region-schedule-limit
=4096;
2 个赞
redgame
(Ti D Ber Pa Amoi Ul)
2023 年8 月 1 日 13:33
5
config set max-pending-peer-count 16
config set replica-schedule-limit 64
1 个赞
主要就是这三个
leader-schedule-limit
region-schedule-limit
store limit
具体调多大,看你的配置了
1 个赞
Kongdom
(Kongdom)
2023 年8 月 2 日 06:08
8
20个小时?看数据量没有特别大。不过加速参数尽量还是在业务低峰期使用。
Kongdom
(Kongdom)
2023 年8 月 4 日 00:33
10
这是对的,之前3节点3副本,每个节点2t,总数据量是2t乘以3是6t,现在变成2节点3副本,总数据量不变,节点数减少,6t除以2就是每个节点3t了。
每个store节点都有一个打分Region score ,pd会根据这个Region score平衡各个节点的region