TIKV单个实例故障后有完整的恢复操作流程么

【 TiDB 使用环境】生产环境
【 TiDB 版本】V.6.1.7
【遇到的问题:问题现象及影响】 一台服务器上部署了4个TIKV实例,如果整台机器故障了,那相当于这台机器上TIKV的4个STORE中分别少了一个存储副本【从3–>2】,那后续如果想恢复这个副本,有具体的恢复流程么? 包括把这个故障副本先从PD摘除掉,然后新增一个TIKV副本

参考下

1 个赞

我看看

TIKV我们还用到了如下配置:
config:
server.labels:
zone: z2
host: 10.1.1.1
这种恢复起来稍微有些费事了吧

一样的啊 你配置了标签 那扩容节点的时候吧标签再打上就好了

看你的这个恢复流程,整体还是挺长的,我看TIDB版本是V5.4.3的,是不是新版本对于踢掉老节点,加入新节点的操作容易一些了呢

这个是在原服务器上重新安装kv节点,如果你有新的机器就简单了,直接扩容新节点就行。

tiup force 缩容这个个节点,然后重新扩容deploy即可

确实是 :+1:

在问你个问题,如下的这个监控【TIKV实例恢复速度】,这个能从METRIC接口获取状态么

一般都是直接在监控看region是否平衡,METRIC接口没接触过不清楚

好的,知道了