为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:
[TiDB 版本]
4.0.6
[问题描述]
用tiup缩容一个tiflash节点后,如果不用display查看一下集群的状态,那个tiflash节点就一直存在,grafana上的状态也一直是up,并且也不能扩容一个相同的节点。只有用tiup cluster display查看一下集群后,它才会开始删除tombstone的节点吗?
若提问为性能优化、故障排查类问题,请下载脚本运行。终端输出的打印结果,请务必全选并复制粘贴上传。
为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:
[TiDB 版本]
4.0.6
[问题描述]
用tiup缩容一个tiflash节点后,如果不用display查看一下集群的状态,那个tiflash节点就一直存在,grafana上的状态也一直是up,并且也不能扩容一个相同的节点。只有用tiup cluster display查看一下集群后,它才会开始删除tombstone的节点吗?
若提问为性能优化、故障排查类问题,请下载脚本运行。终端输出的打印结果,请务必全选并复制粘贴上传。
麻烦提供一下
tiup --version
tiup --binary cluster
的输出结果,看下 tiup 的版本以及 cluster 的版本。
早期的 tiup 版本,对于缩容后的节点,如果在状态变为 tombstone 之后,执行 tiup cluster display 操作是会触发清理 tombstone 节点的操作。
但是目前最新版本的 tiup ,已经改为了需要手动执行 tiup cluster prune 命令才会去清理 tombstone 节点。
tiup --version
v1.1.2 tiup
Go Version: go1.13
Git Branch: release-1.1
GitHash: 7cb85b9-dirty
tiup --binary cluster
/home/tidb/.tiup/components/cluster/v1.1.2/tiup-cluster
我试一下
嗯,但是升级之后需要手动执行 tiup cluster prune 清理 tombstone 节点,display 的时候不会自动清理 tombstone 节点了,display 的时候会显示 tombstone 节点。
那请问tombstone节点是不会自动被清理的吗?还有在被清理前grafana上的状态一直会是up的吗?
缩容操作的时候,执行 store delete 之后,等待节点下线过程中,对应的进程还是运行状态的。变为 tombstone 之后进程也是运行状态的。
关于 Grafana 上状态显示为 up 的问题,可以 pd-ctl 执行 store 命令看下对应的状态是什么样的?可能是 Grafana 状态展示的问题。
此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。