收缩tikv节点后状态一直在Pending Offline

【TiDB 使用环境】生产环境 /测试/ Poc
【TiDB 版本】
【操作系统】
【部署方式】云上部署(什么云)/机器部署(什么机器配置、什么硬盘)
【集群数据量】
【集群节点数】
【问题复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【复制黏贴 ERROR 报错的日志】
【其他附件:截图/日志/监控】

扩容tikv后

再收缩tikv

tiup cluster scale-in tidb-test --node 2.1.1.10:20160

tiup cluster display tidb-test

等了很久也没有变为 tombstone

新建立的集群,没有数据。

怎么让他变为 tombstone状态。

见附件。
Q_Tidb_2_收缩tikv节点后状态一直在Pending Offline.docx (129.6 KB)

你设置的是几个副本?

https://docs.pingcap.com/zh/tidb/stable/pd-configuration-file/#max-replicas

默认3副本的话,tikv的节点数量已经小于副本数量了。这个缩容真要能下线的话,就丢数据了。

如果你确认就是丢数据也要缩容,那就在缩容的时候加 --force 强制缩容

https://docs.pingcap.com/zh/tidb/stable/tiup-component-cluster-scale-in/#--force

2 个赞

节点数默认不能小于副本数,可以先把副本数改为1,然后再缩容。也可以看看grafana里pd视图里的balance,看看数据有没有在缩容。

2 个赞

节点数不能小于副本数量啊

推荐一篇大佬的文章可以看看

1 个赞

建议升级,老版本的这个问题已经解了,5.4都不支持了。

tombstone 这个情况应该也不影响使用的

看看grafana上面这个节点的region

从1个副本,扩容到2个副本,再从2个副本收缩到1个副本。

在哪个版本中解决了?给一个具体的版本号。 场景: 从1个副本,扩容到2个副本,再从2个副本收缩到1个副本。

意思是你原本的 replication.max-replicas 就被你改过了,设置的是1或者2?

我还是想知道你现在这个参数设置到底是什么。