发现一个 tiup 1.4 缩容 tipd 的时候,并不会真正意义上的从 member 中去掉。

为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:

【TiDB 版本】tiup 1.4

【问题描述】反复测了2次,比如我先原来有3个 pd 110 111 112 我新增扩容了3个 104 105 106 ,现在是6个pd 了,然后,缩容 pd 110 111 112 这个三个机器后,等我调整好了这个三个 110 111 112 这个三个机器后,在一次加入使用 tiup 扩容 pd 加入 110 111 112 三个会提示

request sent was ignored by remote peer due to cluster ID mismatch

然后我使用 ./pd-ctl -i -u "http://10.10.10.104:2379" member 发现里面并没有把刚才缩容的三个机器去掉。
手工去掉,再次运行扩容,就可以正常加入了。


若提问为性能优化、故障排查类问题,请下载脚本运行。终端输出的打印结果,请务必全选并复制粘贴上传。

请问下集群版本是多少?这里扩缩容是逐台进行的还是一次性同时对三台同时进行的?

v3.0.5 一个一个的缩容,一个一个的扩容,确实稳定复现。

TiUP 是 TiDB 4.0 版本引入的集群运维工具,你目前使用的集群版本较旧,感觉应该是在兼容性上存在一定问题,我在 v4.0.11 集群中按照你的步骤操作了一遍是没有问题的,如果方便的话可以考虑升级下集群。

就是想升级到4.0,才测试 用 tiup 的。
现在关键的问题点在于,v3.0.5 导入 tiup 以后各种问题,要么node_exporter路径不对,要么无法扩容,缩容,

如果想升级到 V4.0.X 是先 ansible 方式升级到4.0 在导入到 tiup 么?

v3.0 升级到 v4.0 可以参考下:【SOP 系列 11】3.0 线上集群升级 4.0
如果在升级过程中遇到了问题,麻烦重新开个帖子 :pray: