缩容后一直处于Pending Offline状态怎么处理

【 TiDB 使用环境】生产环境
【 TiDB 版本】6.5.0
【复现路径】tiup cluster scale-in test_group --node 1.1.1.5:20160 -y
【遇到的问题:问题现象及影响】一直处理Pending Offline状态

是不是节点数少于副本数? 如果是,等新加的节点region同步完,被缩容的节点会变成tombtone状态,再去掉就行

原来有5个节点,应该不是副本数少吧?

看看grafana监控,是否在调度region就知道进度了。
如果数据多,可能是有点慢的。

那再等等看region 迁移完没,迁移完了就好了

除了grafana还有其他日志可以看吗?

pdctl执行下stores看下region个数,应该是没迁移完

1 个赞

首先,这种情况是正常的
然后,建议检查一下grafana的pd监控,region是否迁移完成
https://docs.pingcap.com/zh/tidb/stable/tiup-component-cluster-scale-in#下线特殊处理

1 个赞

pd的日志也能看到有调度就行,不过真没有grafana 方便。

是看pd leader日志吗?

使用tiup可以查看吗?

现在是集群数据并不多,data文件是有1G,等待一个多小时还是Pending Offline状态,线上如果直接使用–force,会造成数据丢失了??

1 个赞

granafa监控中可以看到这个节点上的region剩余数

1 个赞

tiup ctl:v6.5.0 pd -u http://10.10.10.14:2379 -i
指定你的pd节点进pdctl,然后输入store

多等会

是的,如果数据没有迁移完就使用–force,会造成数据丢失。可以参考楼上的三板斧处理。

1 个赞

应该是在调度中吧

看日志是不是有什么资源卡住了

目前解决了吗?