tikv 报错

TIKV.LOG 不断报错 。

XXX.XXX.XXX.XXX 节点2年前已经下线(过程不清楚)
tiup cluster display 已经查不到该节点状态。

请问如何处理,能去掉这些报错。

日志:
[2023/03/31 15:31:24.410 +08:00] [INFO] [] [“Failed to connect to channel, retrying”]
[2023/03/31 15:31:24.505 +08:00] [WARN] [raft_client.rs:199] [“send to XXX.XXX.XXX.XXX:20174 fail, the gRPC connection could be broken”]
[2023/03/31 15:31:24.505 +08:00] [INFO] [transport.rs:144] [“resolve store address ok”] [addr=10.2.13.81:20172] [store_id=442332]
[2023/03/31 15:31:24.505 +08:00] [ERROR] [transport.rs:163] [“send raft msg err”] [err=“Other("[src/server/raft_client.rs:208]: RaftClient send fail")”]
[2023/03/31 15:31:24.505 +08:00] [INFO] [raft_client.rs:48] [“server: new connection with tikv endpoint”] [addr=10.2.13.81:20172]
[2023/03/31 15:31:24.506 +08:00] [INFO] [] [“Connect failed: {"created":"@1680247884.506287486","description":"Failed to connect to remote host: Connection refused","errno":111,"file":"/rust/registry/src/github.com-1ecc6299db9ec823/grpcio-sys-0.5.3/grpc/src/core/lib/iomgr/tcp_client_posix.cc","file_line":200,"os_error":"Connection refused","syscall":"connect","target_address":"ipv4:XXX.XXX.XXX.XXX:20172"}”]
[2023/03/31 15:31:24.506 +08:00] [INFO] [] [“Subchannel 0x7f1b93967080: Retry in 999 milliseconds”]
[2023/03/31 15:31:24.506 +08:00] [WARN] [raft_client.rs:296] [“RPC batch_raft fail”] [err=“Some(RpcFailure(RpcStatus { status: 14-UNAVAILABLE, details: Some("failed to connect to all addresses") }))”] [sink_err=“Some(RpcFinished(Some(RpcStatus { status: 14-UNAVAILABLE, details: Some("failed to connect to all addresses") })))”] [to_addr=XXX.XXX.XXX.XXX:20172]

参考下这个:
https://docs.pingcap.com/zh/tidb/stable/tiup-component-cluster-scale-in#下线特殊处理


上面那个足够用的话,就不用下面这个了

还有这篇:
https://docs.pingcap.com/zh/tidb/stable/pd-control#下线-store

unsafe 命令。 进入pd 控制台。

  • 执行 tiup cluster display 查看下线节点的状态,等待其状态变为 Tombstone.
    没有 XXX.XXX.XXX.XXX: 节点信息

但是后台日志还是一直报

请问如何操作?

https://docs.pingcap.com/zh/tidb/v4.0/tikv-control#强制-region-从多副本失败状态恢复服务慎用

要是生产环境,建议先备份了

没有第二套生产环境了,风险大?

刚查了一下 audit

2021-3-19 执行过 scale-in XXX.XXX.XXX.XXX: 节点信息
还有 edit-config 没有该 XXX.XXX.XXX.XXX: 节点信息

这都2023年了… :rofl:

2023年有什么玄机?

您好

可以先通过 pd-ctl 查询以下 pd 中是否有这个 store,方法参考 store [delete | cancel-delete | label | weight | remove-tombstone | limit ] <store_id> [--jq="<query string>"]

如果有残留的 store 可以删除掉。