zyw8136
(Hacker 6tdw Syz6)
1
为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:
【 TiDB 使用环境】
【概述】场景+问题概述
【背景】做过哪些操作
【现象】业务和数据库现象
【业务影响】
【TiDB 版本】
5.2.2->5.3.0
【附件】
升级到5.3.0时,tiflash启动失败,但是tiflash在我的集群里面已经移除了。没有相关服务了,现在还是在我原先的机器上启动tiflash。
-
TiUP Cluster Display 信息
-
TiUP Cluster Edit Config 信息
-
TiDB- Overview 监控
zyw8136
(Hacker 6tdw Syz6)
2
问题已经解决。
在查看集群时,有一个提示。
tiup cluster display cdel-yunqi
Starting component cluster
: /home/tidb/.tiup/components/cluster/v1.7.0/tiup-cluster display cdel-yunqi
Cluster type: tidb
Cluster name: cdel-yunqi
Cluster version: v5.2.2
Deploy user: tidb
SSH type: builtin
10.42.50.159:9093 alertmanager 10.42.50.159 9093/9094 linux/x86_64 Up /ssd/tidb/deploy/data.alertmanager /ssd/tidb/deploy
10.42.50.159:3000 grafana 10.42.50.159 3000 linux/x86_64 Up - /ssd/tidb/deploy
10.42.50.161:2379 pd 10.42.50.161 2379/2380 linux/x86_64 Up /ssd/tidb/deploy/data.pd /ssd/tidb/deploy
10.42.50.187:2379 pd 10.42.50.187 2379/2380 linux/x86_64 Up|L /ssd/tidb/deploy/data.pd /ssd/tidb/deploy
10.42.50.188:2379 pd 10.42.50.188 2379/2380 linux/x86_64 Up|UI /ssd/tidb/deploy/data.pd /ssd/tidb/deploy
10.42.50.159:9090 prometheus 10.42.50.159 9090 linux/x86_64 Up /ssd/tidb/deploy/prometheus2.0.0.data.metrics /ssd/tidb/deploy
10.42.50.159:4000 tidb 10.42.50.159 4000/10080 linux/x86_64 Up - /ssd/tidb/deploy
10.42.50.160:4000 tidb 10.42.50.160 4000/10080 linux/x86_64 Up - /ssd/tidb/deploy
10.42.50.159:9000 tiflash 10.42.50.159 9000/8123/3930/20170/20292/8234 linux/x86_64 Tombstone data /ssd/tidb/deploy_flash/
10.42.50.160:9000 tiflash 10.42.50.160 9000/8123/3930/20170/20292/8234 linux/x86_64 Tombstone data /ssd/tidb/deploy_flash/
10.42.50.189:20160 tikv 10.42.50.189 20160/20180 linux/x86_64 Up /ssd/tidb/deploy/data /ssd/tidb/deploy
10.42.50.190:20160 tikv 10.42.50.190 20160/20180 linux/x86_64 Up /ssd/tidb/deploy/data /ssd/tidb/deploy
10.42.50.191:20160 tikv 10.42.50.191 20160/20180 linux/x86_64 Up /ssd/tidb/deploy/data /ssd/tidb/deploy
10.42.50.192:20160 tikv 10.42.50.192 20160/20180 linux/x86_64 Up /ssd/tidb/deploy/data /ssd/tidb/deploy
10.42.50.193:20160 tikv 10.42.50.193 20160/20180 linux/x86_64 Up /ssd/tidb/deploy/data /ssd/tidb/deploy
Total nodes: 15
There are some nodes can be pruned:
Nodes: [10.42.50.160:3930 10.42.50.159:3930]
You can destroy them with the command: tiup cluster prune cdel-yunqi
运行了tiup cluster prune cdel-yunqi,把tiflash解除掉就好了。
好家伙,官方文档都没出,你看了tiup list tidb 就敢直接upgrade?
caiyfc
5
昨天看到了一个同样的问题,好像很多人都会忽略tiup cluster prune
zyw8136
(Hacker 6tdw Syz6)
6
我的当时是下线tiflash来着,由于比较慢,所以下线完就没有prune
caiyfc
7
可能下线的时候tiflash里面有数据,导致下线超过了时限,然后tiup就报错了,其实tiflash还在下线中,下线完了状态就变了,就有提示了
zyw8136
(Hacker 6tdw Syz6)
8
当时下线完成,没有及时处理,所以下次升级时就会有这样的问题,及时prune就可以了。
system
(system)
关闭
10
此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。