tikv扩容节点 不均衡region

【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】4.0.8
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】

tikv 4个节点, 在 成功扩容2个节点后 监控也显示目前tikv6个节点了, 但之前4个节点数据region并没有 均衡到 新的2个节点上来,请问可能引起这个的原因是什么?

【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【附件:截图/日志/监控】

还有其他信息么?日志之类的

grafana截图看一下,1个region都没均衡过来?集群拓扑结构发下看看

所有tikv 节点的配置都是一致的么? 还是有所不同?

region截图发下,然后每个tikv容量发下 最后看看有没错误日志

overview–》tikv 下面的leader 和region 截图看一下。

4.0 都快不维护了 赶快升级吧。

1 个赞

没看到你的日志和截图呢

以下是一些需要考虑的潜在原因:

自动平衡配置:检查 TiKV 集群是否开启了自动平衡。 如果它被禁用,集群将不会自动平衡节点间的数据区域。 您可以通过调整相关配置参数来启用自动平衡。

Region 拆分和合并设置:TiKV 使用 Region 拆分和合并操作来平衡节点间的数据。 如果拆分和合并设置配置不当,可能会导致数据分布不均匀。 确保为您的工作负载适当设置拆分和合并配置。

Leader 均衡:除了数据均衡,TiKV 还会均衡 leader 跨节点分布。 如果领导者平衡未启用或配置不正确,可能会导致领导者分布不均,进而影响数据平衡。 检查领导者平衡设置并确保它们配置正确。

热区不平衡:TiKV 会自动检测热区(读写流量大的区域),并尝试将其移动到不同节点进行负载均衡。 如果原来的 4 个节点上存在热区,它们可能会阻止数据平衡到新节点。 监控热区状态,并采取适当的措施来解决热区问题,例如调整工作负载或调整 TiKV 配置。

网络或硬件限制:网络或硬件问题可能会影响数据平衡过程。 确保节点之间的网络连接稳定,并且所有节点上的硬件资源(CPU、内存、存储)都足以满足工作负载。