使用TiDB Operator滚动升级 Kubernetes 上的 TiDB 集群失败

【 TiDB 使用环境】
k8s中部署tidb
【概述】
在k8s中操作滚动升级tidb,按照https://docs.pingcap.com/zh/tidb-in-kubernetes/stable/upgrade-a-tidb-cluster所描述的,更改 * spec.version ,由5.2.1改为了5.3.0,改完之后发现pd升级到了5.3.0,tidb和tikv仍然是5.2.1,整个集群保持了很长时间的稳定状态,没有任何滚动升级动作
【TiDB 版本】
由5.2.1到5.3.0

1 个赞


这是tikv的状态,实际运行的镜像是5.2.1的,删掉重新部署,也不改变

1 个赞

能够通过 docker pull 尝试手工拉去一下 tikv 和 tidb 的 v5.3.0 的镜像,看看能不能成功

1 个赞

不是镜像的问题,镜像的问题会有明确的事件,比如说pull images fail等等,我已经排查出问题,解决了,这是个测试环境,1个pd,1个tidb,1个tikv,给朋友们留点想象空间,猜猜问题出在哪。。。

2 个赞

哦~这个空间留给你,明天没有人回复,你再给大家解释一下。反正我懂了~

1 个赞

那啥,憋不住了。
其实是tikv滚动升级的时候,需要驱散tikv上的regoin,只有一个tikv驱散了没地方去,所有就卡在那了,从tidb-controller-manager上可以看到日志,tidb没更新的原因,是更新顺序在tikv之后,然后加了tikv的副本数量,这个问题就解决了。

3 个赞

欸嘿,rancher!

1 个赞

厉害了

果然是有实际经验的高手,看配色都能猜出来

此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。