pd-server进行扩容缩容节点之后,tikv和tidb是如何感知到的呢

一个好的问题描述有利于社区小伙伴更快帮你定位到问题,高效解决你的问题

【TiDB 使用环境】生产环境 /测试环境
测试环境
【TiDB 版本】
v7.5.5
【部署方式】云上部署(什么云)/机器部署
物理机
【操作系统/CPU 架构/芯片详情】
【机器部署详情】CPU大小/内存大小/磁盘大小
【集群数据量】
【集群节点数】
【问题复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】

pd-server进行扩容缩容节点之后,tikv和tidb是如何感知到的呢?tikv和tidb如何正确更新内存中的pd地址?

【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【复制黏贴 ERROR 报错的日志】
【其他附件:截图/日志/监控】

扩容缩容应该都是非leader节点吧,获取信息都是从leader节点获取的。

2 个赞

tidb与tikv交互的都是pd的leader。
即使缩容的是pd的leader,也会选举到新的leader,由新的leader来与tidb与tikv交互。

1 个赞

pd扩容后,tikv、tidb 不是“立即”或“主动监听”到这个变化的 ,而是通过其内置的 PD 成员发现机制(PD Member Discovery),在下一次心跳或连接重试时 自动获取最新的 PD 集群拓扑 ,从而“知道”新 PD 节点的存在。

1 个赞