tikv leader和region分布

为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:

【TiDB 版本】4.0.8

【问题描述】
之前的架构是5台kv,每台kv上一个kv实例,单盘存储空间为12T,每个KV上大概240K的region,80k的leader。后来我把架构调整了一下,把其中的一台kv拆成4个kv实例,每个实例为2.7T存储,完成之后这台kv上每个实例有80K的region,其他未拆分的kv为220k region,但是leader数量为每个kv 50K。
想请教一下,为什么leader的分布不像region那样能够按照host来分布呢?
附上leader和region的分布图。



若提问为性能优化、故障排查类问题,请下载脚本运行。终端输出的打印结果,请务必全选并复制粘贴上传。

1.请问下将单台单 kv 实例调整为单台多 kv 实例后,有无打 label ?
2. Region 负载均衡调度主要依赖 balance-leaderbalance-region 两个调度器。目标都是将 Region 均匀地分散在所有 Store 上,但侧重点有所不同: balance-leader 关注 Region 的 Leader,目的是分散处理客户端请求的压力; balance-region 关注 Region 的各个 Peer,目的是分散存储的压力,同时避免出现爆盘等状况。所以可能是目前客户端压力比较小且分布的比较均匀,导致 leader 按照实例做了均匀分布;
3.单个 kv 实例建议磁盘空间分配不要超过 2T ,如果实例挂了之后,需要补大量的 region 副本,会给其他节点带来很大的磁盘压力。