为提高效率,提问时请提供以下信息,问题描述清晰可优先响应。
- 【TiDB 版本】:4.0.0
- 【问题描述】:
若提问为性能优化、故障排查类问题,请下载脚本运行。终端输出的打印结果,请务必全选并复制粘贴上传。
为提高效率,提问时请提供以下信息,问题描述清晰可优先响应。
若提问为性能优化、故障排查类问题,请下载脚本运行。终端输出的打印结果,请务必全选并复制粘贴上传。
是的,设置了 sync-log = false 。
只有这个节点报错,其它都正常。
我去pd上面查看 这个参数
[replication]
location-labels = []
max-replicas = 3
集群有几个 tikv 节点?
可以
pd-ctl -u http://{pd_ip}:2379 region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(length !=3)}"
检查一下集群是或否有副本数不足的情况。
如果要恢复的话,可以将这个节点强制缩容然后重新扩容来恢复
tiup cluster scale-in ${cluster-name} -N --force 将异常节点缩容掉,然后重新扩容吧
如果是 2 个 tikv 节点出现这个错误,可以参考
看日志 是regions丢失了,现在想的是,有没有办法从别的节点上面 把丢失的regions复制过去?
重新扩容会将自动将 region 复制过去的,缩容扩容的目的就是清理脏数据
此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。