tiup迁移后,对pd节点进行扩缩容,两个tiup节点执行display显示信息不一致

场景:tiup节点机器1 , 迁移该tiup节点到机器2。 当前集群pd节点3个,使用tiup扩容3个新节点,并下线三个旧节点
操作1:tiup 1节点/home下拷贝.tiup目录到tiup2机器,拷贝tiup目录下mirror相关文件到tiup2机器,在tiup2机器上执行display命令成功 可显示集群信息
操作2: tiup 1上执行scale-out扩容三台pd节点, 在tiup2上执行scale-in缩容命令
问题:tiup1 和tiup2两个节点执行display显示信息不一致

tiup 1上执行scale-out扩容三台pd节点, 在tiup2上执行scale-in缩容命令,这操作是什么意思?你为什么不再tiup2上扩容加缩容?
你这样肯定不一致啊,tiup1扩容修改的是1的meta文件,tiup2缩容修改的是2的meta文件。。。。

我理解有问题了,以为tiup每次执行display查看集群状态都是从集群内部获取最新的信息,没理解到它是用本地元数据文件来跟踪的

还有个问题想要请教下:上面说的我的集群有三个pd节点a(leader),b,c ,然后我有在其它三台机器上扩容了三个pd节点1,2,3。执行iup ctl:v5.4.1 pd -u http://tiup2:2379 member leader transfer pd-xxx-2379 命名把pd-a上的leader迁移到新扩容的pd-1上,然后执行缩容命令把a,b,c上面的pd都删掉,业务反馈执行truncate table 失败:tidb日志打印:
[ddl.go:572] [“[ddl] start DDL job”] [job=“ID:664396, Type:truncate table, State:none, SchemaState:queueing, SchemaID:158939, TableID:663497, RowCount:0, ArgLen:1, start time: 2024-07-19 02:43:24.304 +0800 CST, Err:, ErrCount:0, SnapshotVersion:0”] [query=“truncate table t03_product”]
[2024/07/19 02:43:24.563 +08:00] [INFO] [ddl.go:640] [“[ddl] DDL job is failed”] [jobID=664388]
[2024/07/19 02:43:24.563 +08:00] [INFO] [tidb.go:260] [“rollbackTxn called due to ddl/autocommit failure”]
[2024/07/19 02:43:24.563 +08:00] [WARN] [session.go:1719] [“run statement failed”] [conn=57] [schemaVersion=427660] [error=“[ddl:-1]failed to get old label rules from PD: Get "http://pd-a:2379/pd/api/v1/config/region-label/rules/ids\”: dial tcp pd-a:2379: connect: connection refused"] [session=“{\n "currDBName": "birdsst",\n "id": 57,\n "status": 2,\n "strictMode": false,\n "user": {\n "Username": "bi",\n "Hostname": "1xxx",\n "CurrentUser": false,\n "AuthUsername": "bi",\n "AuthHostname": "%"\n }\n}”]
为什么业务执行truncate 会转到已经下线的pd节点呢

你这问题好像和 ERROR 1105 (HY000): failed to get old label rules from PD - TiDB 的问答社区 (asktug.com)PD正常缩容,数据库无法使用,truncate table 等出现 错误: 1105 - failed to get old label rules from PD - TiDB 的问答社区 (asktug.com)
这些有点像啊,貌似都要重启集群了

好的好的