tidb v7.5 缩容的时候在pending offline状态执行了force导致表不可用了,报region is unavailable,表也删除不了,用不了了

【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【附件:截图/日志/监控】
tidb v7.5 缩容的时候在pending offline状态执行了force操作导致表不可用了,报region is unavailable,表也删除不了,用不了了;
现在怎么将表强制删除

可以把问题细化一下,比如:一个一个问题解决。比如先做缩容看看有什么问题。然后在看看操作表的问题。信息也可以反馈的更完善一点

一共几个kv,缩了几个kv
我怀疑你3个节点缩容一个,缩不掉就暴力–force了
建议先扩一个节点看看

unsafe 的操作可以,但是数据会丢了,只能保证集群能恢复

生产环境没敢用过 force。unsafe操作

mark 一下,这非正常操作恢复,感觉要使用pd-ctl 或者其他非正常操作了

如果您缩容的是tikv。。一定要记得tikv最少3个节点。。

1 个赞

Mark下,同感这个你得用pdctl去解决下,之前就遇到过缩容状态失败,节点就是unavailable,还是要去pd删除掉

参考这里, 专栏 - TiKV缩容下线异常处理的三板斧 | TiDB 社区
另外如果只有3个tikv节点,缩容肯定不成功的,这时候应该先扩容,才能缩容掉,不要缩不掉直接force删除。。。

下次不要用了哦👍

保留多数派

勇士 :call_me_hand:

你缩容的是哪个

后面处理了,缩容不掉强制缩的;但是tidb是三副本,不应该和hdfs一样吗,其中一个副本不可用另外两个副本选一个leader在自动复制一个副本实现三副本吗?,现在缺失一个就导致很多表不可用;

我这边一直都是十几个节点,不是三个节点

现在是将所有问题region相关的表全删掉,不然遇到这些表相关的查询就会出现问题

tikv要三个节点,不然没有高可用;虽然一个tikv也可用

还能这么操作嘛

如果你是十几个节点,三副本的话,缩容一个节点,这个节点上面的region是会转移到其他没有对应region副本的节点上的,而且就算你缩容没缩容掉强制删除这个节点,不会出现集群不可用的情况。3副本任意坏掉一个副本不会影响集群使用的。

是不是单服务器多实例部署了,但是没有打 label?