Leader调度问题

【 TiDB 使用环境】
测试

【 TiDB 版本】
v5.0.3

【环境】
两地三中心架构:
每中心两节点
同城两中心有region的leader
异地中心的两节点执行以下命令:
scheduler add evict-leader-scheduler <store_id>
设置5副本

所有节点服务器配置一样
基本采用默认配置。

【问题】
同城中心的一节点,磁盘io问题,导致不可用
结果在异地中心的节点上进行补副本及leader,导致业务访问超慢。

为什么会在异地节点上产生leader呢,执行的那个迁移命令不生效么?
这种问题又怎么解决呢?

参考这个
要设置这个吧
config set label-property reject-leader dc 3

备中心 没有leader
https://docs.pingcap.com/zh/tidb/stable/three-data-centers-in-two-cities-deployment#参数配置优化

这个和 label 的设置有强耦合,可以把 label 的配置贴一下

scheduler add evict-leader-scheduler <store_id>

这个命令的作用呢,它不是永久生效的是么?

没有设置label呢

我看也是避免节点正常leader,你可以擦查控一些 pd 的规则和store id 是对应的吗

schedule config show
结果是有那个leader迁移的呢,store id也 是对应的

你配置可能有问题
在 TiDB v5 版本中,两地三中心架构下,应合理设置 label ,例如:

tikv_servers:
  - host: 10.63.10.30
    config:
      server.labels: { az: "1", replication zone: "1", rack: "1", host: "30" }
  - host: 10.63.10.31
    config:
      server.labels: { az: "1", replication zone: "2", rack: "2", host: "31" }
  - host: 10.63.10.32
    config:
      server.labels: { az: "2", replication zone: "3", rack: "3", host: "32" }
  - host: 10.63.10.33
    config:
      server.labels: { az: "2", replication zone: "4", rack: "4", host: "33" }
  - host: 10.63.10.34
    config:
      server.labels: { az: "3", replication zone: "5", rack: "5", host: "34" }

设置异地中心不产生 leader ,应该使用 config set label-property reject-leader az 3 命令,详细配置参考 https://docs.pingcap.com/zh/tidb/v6.5/three-data-centers-in-two-cities-deployment#参数配置优化
同时使用 isolation-level 限制最小隔离界别要求

想分析你当前问题,请把 pd 配置 config show all 发出来

此话题已在最后回复的 60 天后被自动关闭。不再允许新回复。