cluster ID mismatch

【TiDB 使用环境】生产环境 /测试/ Poc
【TiDB 版本】
【操作系统】
【部署方式】云上部署(什么云)/机器部署(什么机器配置、什么硬盘)
【集群数据量】
【集群节点数】
【问题复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【复制黏贴 ERROR 报错的日志】
【其他附件:截图/日志/监控】

[server.rs:847] [“failed to bootstrap raft_server id: "[src/server/raft_server.rs:260]: cluster ID mismatch, local 7468214447172671077 != remote 7441046326954851609, you are trying to connect to another cluster, please reconnect to the correct PD"”] [thread_id=1]

reconnect to the correct PD

cluster id不一样,就认为连接的pd不是自己当前集群的pd。

出现这个问题的主要原因,一般都是中控机部署了2个集群,或者中控机的metadata没管理好,因为某些原因重建过中控机。

如果是练习部署的时候出现这个问题,解决方法就是重新部署。
如果是老系统,你要保存原来的数据,又没有对应的中控机的metadata。那就比较难办了。

只能按这个方法尽力挽救一下了。

希望你只是在练习部署的时候碰上的这个问题。

使用的是K8S部署,tiup能操作吗?
机器重启后引发的故障

不能直接修改,重新新的pd吗?

https://docs.pingcap.com/zh/tidb-in-kubernetes/stable/deploy-failures/#cluster-id-mismatch

这个在 TiDB Operator里面还是个经典问题,你可以看看这个。

是的,我是按他的方法操作,当前出现新的问题,有一个PVC删不掉,另外有一个隐患,删除PVC后,数据是不是丢失了

删除完后,出现新的问题了
["failed to start raft_server: Other("[components/pd_client/src/util.rs:953]: duplicated store address:

https://docs.pingcap.com/zh/tidb/stable/manage-cluster-faq/#tikv-启动报错duplicated-store-address

感觉和pd的问题类似,都是数据状态不一致。

我对k8s不熟,大致搜了下,pv应该是实际存储数据的地方,如果pv还在的话,应该有机会重建这个pvc吧。所以我感觉只删除pvc,不删除pv的话,应该不会导致数据丢失。

感觉是数据和pd的数据状态不一致。

数据跟pb数据不同吧,重建试试