有一个tikv今天突然报错。然后就启动不了了,报错如下

为提高效率,提问时请提供以下信息,问题描述清晰可优先响应。

若提问为性能优化、故障排查类问题,请下载脚本运行。终端输出的打印结果,请务必全选并复制粘贴上传。

  1. 是设置了 sync-log = false 么
  2. 这个节点是不是异常掉电重启过,且只有这一个节点报错无法启动么
  3. max-replica 设置的副本数是多少

是的,设置了 sync-log = false 。
只有这个节点报错,其它都正常。
我去pd上面查看 这个参数
[replication]
location-labels = []
max-replicas = 3

集群有几个 tikv 节点?
可以
pd-ctl -u http://{pd_ip}:2379 region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(length !=3)}"
检查一下集群是或否有副本数不足的情况。

如果要恢复的话,可以将这个节点强制缩容然后重新扩容来恢复


命令执行后 打出大量日志。这代表什么意思了?

tiup cluster scale-in ${cluster-name} -N --force 将异常节点缩容掉,然后重新扩容吧

如果是 2 个 tikv 节点出现这个错误,可以参考

https://asktug.com/t/topic/34246

看日志 是regions丢失了,现在想的是,有没有办法从别的节点上面 把丢失的regions复制过去?

重新扩容会将自动将 region 复制过去的,缩容扩容的目的就是清理脏数据

此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。