【 TiDB 使用环境】测试
【 TiDB 版本】V6.4
【复现路径】使用scale-out扩容tikv,每个节点由1个tikv扩为3个tikv。共扩了2次,每次扩了3个。
【遇到的问题:问题现象及影响】扩容后查看tikv状态状态正常,但region未自动均衡,扩容后的tikv不确定是否正常启用
【资源配置】
【附件:截图/日志/监控】
为啥不用 6.5.X ? 要用 6.4 ?
服务如果都是正常在运行的话,自动平衡需要等等,,因为调度和执行需要时间
检查下schedule 状态,config 这些参数是不是都是对的啊?
很早之前安装的,那时最新的就是6.4。已经过了一个晚上了,就一百多G 的数据量,应该不至于要这么久吧。
你可以看下 cluster-pd - > Operator → Schedule operator create
看下有没有调度产生
看你的监控长时间没数据了,试试重启下普罗。 从information_schema.tikv_store_status里看下leader_count region_count看看是否均衡了。
参数就是截图中那样扩的,应该没问题吧。可以在一个物理机上部署多个tikv么?我记得端口不一样,就是可以成功的吧。
PD → Statistics Balance 查看 store region打分,和各个节点的region数量
有监控数据的。截图中的结果跟查系统表是一样的。
有设置label吗? 新加的tikv 有没有设置?
看你这个图是发生了PD Leader切换了吧,左上角切换一下实例看看
一晚上100G其实还算正常,用pdctl store limit调整一下add peer的速度吧,默认tikv调度确实很慢,记得默认值是150,直接给调整到2000,补完数据再调整回去
没有设置,以前的也没设置。看了meta.yaml基本没啥问题。
好像没什么区别。
感觉是tikv没启动起来,重新load数据进去,扩容的tikv也没见region涨。
看看空region多不多
空region不多,region多的占用空间就很大。