缩容TIKV节点后重启集群报错

为提高效率,提问时请提供以下信息,问题描述清晰可优先响应。

  • 【TiDB 版本】:5.0.0
  • 【问题描述】:缩容tikv节点后重启集群tidb节点报错,缩容命令–force;
    报错内容[2021/01/20 17:25:35.872 +08:00] [WARN] [client_batch.go:228] [“init create streaming fail”] [target=10.254.241.66:20162] [error=“context deadline exceeded”]
    [2021/01/20 17:25:35.872 +08:00] [INFO] [region_cache.go:1701] ["[liveness] request kv status fail"] [store=10.254.241.66:20182] [error=“Get http://10.254.241.66:20182/status: dial tcp 10.254.241.66:20182: connect: connection refused”]
    [2021/01/20 17:25:35.872 +08:00] [INFO] [region_cache.go:623] [“mark store’s regions need be refill”] [store=10.254.241.66:20162]

若提问为性能优化、故障排查类问题,请下载脚本运行。终端输出的打印结果,请务必全选并复制粘贴上传。

10.254.241.66:20182是缩容的节点

缩容操作是 tiup 操作吗 ? 能不能提供一下详细的 tiup debug 和 tikv log 日志。

已经destroy 集群 下次遇到再同步。

好的, 感谢反馈

此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。