从5.2.2升级5.3.0时,tiflash 启动失败!

为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:
【 TiDB 使用环境】
【概述】场景+问题概述
【背景】做过哪些操作
【现象】业务和数据库现象
【业务影响】
【TiDB 版本】
5.2.2->5.3.0
【附件】
升级到5.3.0时,tiflash启动失败,但是tiflash在我的集群里面已经移除了。没有相关服务了,现在还是在我原先的机器上启动tiflash。

  1. TiUP Cluster Display 信息

  2. TiUP Cluster Edit Config 信息

  3. TiDB- Overview 监控

问题已经解决。
在查看集群时,有一个提示。
tiup cluster display cdel-yunqi
Starting component cluster: /home/tidb/.tiup/components/cluster/v1.7.0/tiup-cluster display cdel-yunqi
Cluster type: tidb
Cluster name: cdel-yunqi
Cluster version: v5.2.2
Deploy user: tidb
SSH type: builtin


10.42.50.159:9093 alertmanager 10.42.50.159 9093/9094 linux/x86_64 Up /ssd/tidb/deploy/data.alertmanager /ssd/tidb/deploy
10.42.50.159:3000 grafana 10.42.50.159 3000 linux/x86_64 Up - /ssd/tidb/deploy
10.42.50.161:2379 pd 10.42.50.161 2379/2380 linux/x86_64 Up /ssd/tidb/deploy/data.pd /ssd/tidb/deploy
10.42.50.187:2379 pd 10.42.50.187 2379/2380 linux/x86_64 Up|L /ssd/tidb/deploy/data.pd /ssd/tidb/deploy
10.42.50.188:2379 pd 10.42.50.188 2379/2380 linux/x86_64 Up|UI /ssd/tidb/deploy/data.pd /ssd/tidb/deploy
10.42.50.159:9090 prometheus 10.42.50.159 9090 linux/x86_64 Up /ssd/tidb/deploy/prometheus2.0.0.data.metrics /ssd/tidb/deploy
10.42.50.159:4000 tidb 10.42.50.159 4000/10080 linux/x86_64 Up - /ssd/tidb/deploy
10.42.50.160:4000 tidb 10.42.50.160 4000/10080 linux/x86_64 Up - /ssd/tidb/deploy
10.42.50.159:9000 tiflash 10.42.50.159 9000/8123/3930/20170/20292/8234 linux/x86_64 Tombstone data /ssd/tidb/deploy_flash/
10.42.50.160:9000 tiflash 10.42.50.160 9000/8123/3930/20170/20292/8234 linux/x86_64 Tombstone data /ssd/tidb/deploy_flash/
10.42.50.189:20160 tikv 10.42.50.189 20160/20180 linux/x86_64 Up /ssd/tidb/deploy/data /ssd/tidb/deploy
10.42.50.190:20160 tikv 10.42.50.190 20160/20180 linux/x86_64 Up /ssd/tidb/deploy/data /ssd/tidb/deploy
10.42.50.191:20160 tikv 10.42.50.191 20160/20180 linux/x86_64 Up /ssd/tidb/deploy/data /ssd/tidb/deploy
10.42.50.192:20160 tikv 10.42.50.192 20160/20180 linux/x86_64 Up /ssd/tidb/deploy/data /ssd/tidb/deploy
10.42.50.193:20160 tikv 10.42.50.193 20160/20180 linux/x86_64 Up /ssd/tidb/deploy/data /ssd/tidb/deploy
Total nodes: 15
There are some nodes can be pruned:
Nodes: [10.42.50.160:3930 10.42.50.159:3930]
You can destroy them with the command: tiup cluster prune cdel-yunqi

运行了tiup cluster prune cdel-yunqi,把tiflash解除掉就好了。

好家伙,官方文档都没出,你看了tiup list tidb 就敢直接upgrade?

这点信心应用有的!:grinning:

昨天看到了一个同样的问题,好像很多人都会忽略tiup cluster prune

我的当时是下线tiflash来着,由于比较慢,所以下线完就没有prune

可能下线的时候tiflash里面有数据,导致下线超过了时限,然后tiup就报错了,其实tiflash还在下线中,下线完了状态就变了,就有提示了

当时下线完成,没有及时处理,所以下次升级时就会有这样的问题,及时prune就可以了。

是的:+1:

此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。