tidb节点tikv节点缩容后、状态为NA

【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】


如图、106为kv节点、之前缩容后状态为Tombstone、然后执行了pd-ctl store remove-tombstone 就变为NA状态了、怎么才能让这个节点彻底下线哈
【资源配置】
【附件:截图/日志/监控】

版本多少?,如果下线不成功,操作备份数据!!! 万不得已在使用 force参数强制下线
参考如下文章:

https://docs.pingcap.com/zh/tidb/dev/scale-tidb-using-tiup#缩容-tidbpdtikv-节点

5.3.0,下线已经很久了。而且物理机也移除了。就是集群信息还在

确认没有数据了就先备份数据,然后使用force 参数强制删除即可。

pd-ctl store 看还有这个store吗

他这store 很大几率是存在的。这是没正常下线后移除物理数据产生的情况。

没有了,这边查过的

tiup的toml文件里删掉这个节点试试
删之前备个份

使用force 参数可以强制下线

物理机器都不在了,可以用scale in的force选项来清理这类拓扑信息

tiup cluster prune 对于某些组件,并不会立即停止服务并删除数据,而是需要等数据调度完成之后,用户手动执行 tiup cluster prune 命令清理。

这种强制下线就可以了

tikv状态变为tombstone后 应使用 tiup cluster prune进行清理,如果还有监控信息残留则使用 pd-ctl store remove-tombstone 。 现在你这个直接scale-in -N xxx --force 强制删除就好了

scale-in -N --force 后提示如下Error: failed to scale in: cannot find node id ‘192.168.90.106’ in topology 还是无法删除~~

home目录 .tiup/storage/cluster/clusters/{cluster-name}/meta.yaml 这个文件备份下,然后把里面对应节点内容删除

进入 pd 控制台。 store limit 看看是不是 节点还在

如果节点还在, 确认节点 不需要的情况下 进行 unsafe 操作吧。 先 delete 看看。 不行 就 unsafe 掉

好的、谢谢~等非生产时间了试下

此话题已在最后回复的 60 天后被自动关闭。不再允许新回复。