【TiDB 使用环境】生产环境 /测试/ Poc
【TiDB 版本】
【操作系统】
【部署方式】云上部署(什么云)/机器部署(什么机器配置、什么硬盘)
【集群数据量】
【集群节点数】
【问题复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【复制黏贴 ERROR 报错的日志】
【其他附件:截图/日志/监控】
[server.rs:847] [“failed to bootstrap raft_server id: "[src/server/raft_server.rs:260]: cluster ID mismatch, local 7468214447172671077 != remote 7441046326954851609, you are trying to connect to another cluster, please reconnect to the correct PD"”] [thread_id=1]
reconnect to the correct PD
有猫万事足
2025 年3 月 31 日 11:27
3
cluster id不一样,就认为连接的pd不是自己当前集群的pd。
出现这个问题的主要原因,一般都是中控机部署了2个集群,或者中控机的metadata没管理好,因为某些原因重建过中控机。
如果是练习部署的时候出现这个问题,解决方法就是重新部署。
如果是老系统,你要保存原来的数据,又没有对应的中控机的metadata。那就比较难办了。
1、对数据库进行全备
建议用br对数据库进行全备,防止后续步骤中出现意外,保障有恢复的兜底方案
br backup full \ –pd “${PDIP}:2379” \ –storage “local:///tmp/backup” \ –ratelimit 128 \ –log-file backupfull.log
2、安装tiup
下载同版本的数据库安装包安装tiup
安装完成后执行
…
只能按这个方法尽力挽救一下了。
希望你只是在练习部署的时候碰上的这个问题。
使用的是K8S部署,tiup能操作吗?
机器重启后引发的故障
有猫万事足
2025 年4 月 1 日 07:23
6
是的,我是按他的方法操作,当前出现新的问题,有一个PVC删不掉,另外有一个隐患,删除PVC后,数据是不是丢失了
删除完后,出现新的问题了
["failed to start raft_server: Other("[components/pd_client/src/util.rs:953]: duplicated store address:
有猫万事足
2025 年4 月 2 日 10:21
8
https://docs.pingcap.com/zh/tidb/stable/manage-cluster-faq/#tikv-启动报错duplicated-store-address
感觉和pd的问题类似,都是数据状态不一致。
我对k8s不熟,大致搜了下,pv应该是实际存储数据的地方,如果pv还在的话,应该有机会重建这个pvc吧。所以我感觉只删除pvc,不删除pv的话,应该不会导致数据丢失。