tiflash 6.1多副本存储不平衡

为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:
【 TiDB 使用环境】
tidb 6.1

【概述】 场景 + 问题概述
tikv 3副本,tiflash 3副本,测试数据库开启tiflash 3 replica,但是数据存储都集中在tiflash-0上,tiflash-1和tiflash-2上只有很少的数据,mpp执行也只在tiflash-0上执行


表的分片情况


若提问为性能优化、故障排查类问题,请下载脚本运行。终端输出的打印结果,请务必全选并复制粘贴上传。

请问下拓扑,tikv/tiflash分别独立部署还是混布,具体什么情况? TiFlash三个节点spec不同?

一共3个tiflash节点?每个有tiflash副本的表都是3副本?

物理机5节点,tikv和tiflash混布的

3个tiflash节点,tiflash副本,是按照数据库,给test库配置了3副本

最开始的时候,只用了一张表做测试,也是开了3个节点,开了3个副本,存储是3个节点基本平衡的,查询开了mpp的情况下,也能同时使用3个节点。
后面加了几张表,中间出了问题,做过一次缩容再扩容,后面的表副本就不均衡了,只有tiflash-0节点上有数据

tiflash-0和另外两个节点的容量Capacity和Available差异略大,可以看一下Grafana上PD -> Balance页面上的Store Region Score。另外test库大概多大


test库目前4个副本,用了差不多1T

tiflash-0和另外两个TiFlash节点的Store Region Score差很多,PD应该是想要调度的,需要再看Grafana上PD -> Operator页面是否有operator生成。另外好像你把tiflash-1和tiflash-2部署在了同一台机器上,非常不建议这样部署,并且这台机器剩余空间也就100多GB了,剩余空间不足PD也不会往上面调度。

把pd,tikv,tiflash都重启了一遍,多出来很多调度任务,应该开始调度了,就很奇怪,之前为啥不调度

那就再观察一下吧

该主题在最后一个回复创建后60天后自动关闭。不再允许新的回复。