【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
如图、106为kv节点、之前缩容后状态为Tombstone、然后执行了pd-ctl store remove-tombstone 就变为NA状态了、怎么才能让这个节点彻底下线哈
【资源配置】
【附件:截图/日志/监控】
【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
版本多少?,如果下线不成功,操作备份数据!!! 万不得已在使用 force参数强制下线
参考如下文章:
https://docs.pingcap.com/zh/tidb/dev/scale-tidb-using-tiup#缩容-tidbpdtikv-节点
5.3.0,下线已经很久了。而且物理机也移除了。就是集群信息还在
确认没有数据了就先备份数据,然后使用force 参数强制删除即可。
pd-ctl store 看还有这个store吗
他这store 很大几率是存在的。这是没正常下线后移除物理数据产生的情况。
没有了,这边查过的
tiup的toml文件里删掉这个节点试试
删之前备个份
使用force 参数可以强制下线
物理机器都不在了,可以用scale in的force选项来清理这类拓扑信息
tiup cluster prune 对于某些组件,并不会立即停止服务并删除数据,而是需要等数据调度完成之后,用户手动执行 tiup cluster prune
命令清理。
这种强制下线就可以了
tikv状态变为tombstone后 应使用 tiup cluster prune进行清理,如果还有监控信息残留则使用 pd-ctl store remove-tombstone 。 现在你这个直接scale-in -N xxx --force 强制删除就好了
scale-in -N --force 后提示如下Error: failed to scale in: cannot find node id ‘192.168.90.106’ in topology 还是无法删除~~
home目录 .tiup/storage/cluster/clusters/{cluster-name}/meta.yaml 这个文件备份下,然后把里面对应节点内容删除
进入 pd 控制台。 store limit 看看是不是 节点还在
如果节点还在, 确认节点 不需要的情况下 进行 unsafe 操作吧。 先 delete 看看。 不行 就 unsafe 掉
好的、谢谢~等非生产时间了试下
此话题已在最后回复的 60 天后被自动关闭。不再允许新回复。