【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【附件:截图/日志/监控】
这种问题有遇到过的没呢?
【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【附件:截图/日志/监控】
缩容重建吧
有教程不
更好奇怎么复现这个问题
不好复现哦,我也是偶然发现那个节点状态为down,然后查看日志才发现这个问题。
你有几个tikv节点,几副本,看来这个节点已经丢数据了
5个节点,副本数是默认的。当前想把这个节点缩容,然后再扩容。
5个节点,3副本的话,是可以直接缩容加扩容的
监控没有告警出来吗?
把tikv放出来就行
有教程
最好的办法是br备份
再新建一个集群回复数据
最保险
1、先把有问题的tikv缩容掉
$ tiup cluster scale-in -N IP:port
2、观察监控,看这个节点上的leader和region都降为0,其他的节点的region、leader都上升
3、执行display,看看这个节点状态是否变成tombstone,然后执行 执行 tiup cluster prune
命令清理 Tombstone 节点
$ tiup cluster display
$ tiup cluster prune
4、扩容tikv
$ tiup cluster scale-out
1、先把有问题的tikv缩容掉
$ tiup cluster scale-in -N IP:port --force
2、观察监控,看这个节点上的leader和region都降为0,其他的节点的region、leader都上升
3、执行display,看看这个节点状态是否变成tombstone,然后执行 执行 tiup cluster prune 命令清理 Tombstone 节点
$ tiup cluster display
$ tiup cluster prune --force
4、扩容tikv
$ tiup cluster scale-out