pd扩容应该如何增加cluster member?

【 TiDB 使用环境】测试环境
【 TiDB 版本】tikv6.1.0
用的内部部署工具部署tikv,官方文档可用tiup和kubectl轻易扩容,但我们自己的部署工具只能增加节点和部分参数,比如initial-cluster,没办法做到真正让新增的pd节点添加到原来的pd集群中。所以想请问一下有没有大佬知道pd如何将新的pd节点添加到原有的pd cluster中。我尝试了用配置中的join,并未成功,查看etcd的member,仍然只有原来的节点。

–join 这个参数,加入已有集群

建议使用 tiup 的操作进行扩容

参考文档
https://docs.pingcap.com/zh/tidb/stable/scale-tidb-using-tiup#1-编写扩容拓扑配置

我实验了一下,直接join的话,会生成一个新的cluster,新的cluster包括了join的节点,但并不是加入到了目标节点原来的cluster中

tiup有办法连接到环境中已有的集群中吗?部署的时候不是用tiup部署的

配置文件包括现有集群节点,然后tiup部署一下,这样就能管理了

可以通过tiup 的配置文件进行导入…

然后通过 tiup 来接管


找个新的中控机重建环境就好了

  1. 安装 tiup 工具包
  2. 配置原来集群的信息,topology.yaml (需要将原来集群节点的信息都录入)
  3. tiup cluster deploy tidb-xxx ./topology.yaml
  4. tiup cluster display tidb-xxx

查看集群的状态即可…

配置文件加入,tiup加入

谢谢回复,即使tiup管理了原来的集群并扩容了pd,新增的pd节点在内部的devops平台也不可见,对用户来说不太友好。还是尝试增加节点,然后用类似pd join或者etcd member add的方式操作下

最后采用了部署新pd集群,然后让tikv加入到新pd集群的方式。主要原因在于内部devops平台在做pd扩容时并不会像tiup和kubuctl那么流畅。理论上讲,我们自己用的devops也能做到pd扩容,只是扩容的细节不清楚,没办法进行适配

你确定你试的是对的? 连接pd 执行member 看下