通过tiup缩容节点报错

【 TiDB 使用环境】

生产

【 TiDB 版本】

v4.0.5

【遇到的问题】

执行如下命令时,出现报错。

命令:

tiup cluster scale-in jichujiagou-bigdata-tidb --force --node 10.20.34.27:4000

报错:

Process exited with status 1 transfer from /home/tidb/.tiup/storage/cluster/clusters/jichujiagou-bigdata-tidb/config-cache/tikv-172.17.144.143-20160.service to /tmp/tikv_89549722-c523-47bf-b596-d769900441e5.service failed github.com/pingcap/tiup/pkg/cluster/spec.(*BaseInstance).InitConfig github.com/pingcap/tiup@/pkg/cluster/spec/instance.go:159 github.com/pingcap/tiup/pkg/cluster/spec.(*TiKVInstance).InitConfig github.com/pingcap/tiup@/pkg/cluster/spec/tikv.go:173 github.com/pingcap/tiup/pkg/cluster/task.(*InitConfig).Execute github.com/pingcap/tiup@/pkg/cluster/task/init_config.go:49 github.com/pingcap/tiup/pkg/cluster/task.(*Serial).Execute github.com/pingcap/tiup@/pkg/cluster/task/task.go:189 github.com/pingcap/tiup/pkg/cluster/task.(*Parallel).Execute.func1 github.com/pingcap/tiup@/pkg/cluster/task/task.go:242 runtime.goexit runtime/asm_amd64.s:1357 init config failed: 172.17.144.143:20160

【复现路径】

【问题现象及影响】

不确定缩容后,对现有集群是否有影响。

这个tikv是什么状态

tiup cluster display结果贴下。/home/tidb/.tiup/storage/cluster/clusters/jichujiagou-bigdata-tidb/config-cache/tikv-172.17.144.143-20160.service 这个文件还有吗

10.20.34.27:4000这个节点从拓扑里看不到了,还有一个节点所在的机器被回收了,需要做缩容操作。但是担心有问题,就暂时没操作。

有这个文件。

您好,
从您反馈的日志来看,TiKV 实例应该没有被清理。如果不太放心,可以通过 pd-ctl 查看一下集群中 Region 副本情况,看一下是否存在小于 2 副本的 Region 的情况。可以参考一下这个文档,对 region 情况做一下检查。

可以看看 Leader 状态是否都是正常的。专栏 - JQ 入门教程 | TiDB 社区

该主题在最后一个回复创建后60天后自动关闭。不再允许新的回复。