TIDB 迁移至k8s operator出现问题

【 TiDB 使用环境】测试
【 TiDB 版本】7.5.0 operator 1.5.0
【复现路径】 将 TiDB 迁移至 Kubernetes | PingCAP 文档中心 按照这篇文档已完成前置条件
【遇到的问题:问题现象及影响】配置pdAddresses没有用,依旧在本地配置pd,也没有远程连上pd
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【附件:截图/日志/监控】
tidb集群可以解析pod网络

1710314601839




发现的报错

进入tidb容器能ping通
1710321241212
k8s上pd-1节点日志


将 TiDB 迁移至 Kubernetes | PingCAP 文档中心
这个文档也太抽象了,新手劝退

全网就找到这一个文档,人麻了

你的问题我没太理解,但是那个文档我看着还行啊,就是相当于扩容了一些节点在k8s中,然后缩容tiup里面的节点,数据自然就流到了k8s中了。

将 TiDB 迁移至 Kubernetes更新于 2020/11/9 20:17:31: fix pdAddresses (#820)

这篇文档都是 3 年多前的了。。。

是这样的没错,但是我在进行配置之后,依旧是两个独立的集群,并没有合并成一个集群

首先保证所有的pod和tiup部署的网络是通的。
然后按介绍操作后,通过
pd-ctl member应该能看到6个pd节点。k8s 3个,tiup3个
这一步对了就可以切换pd的leader到k8s中的。
看store,应该也有2个集群的store,再一个一个的下线tiup中的就行了。

你现在是哪个环节不对?

查看了member还是只有三个节点,没有合并成功

是通的

我之前看过这个文档,后来退了

进入到pd的pod,ps看看,看看pd的启动命令。
并且看下pd的配置文件。
有没有tiup的节点ip

报错 connection reset by peer 说明这个连接是没被正常关闭的,这时 tidb 尝试正常从 client 读请求的时候发现连接已经被对方关了。
要么忽略无视,要么检查外部链接和网络。

是不是只是能ping通,某些端口是过不去的?

我们是导入导出,但是反着来的,k8s这种,哎。。。

这个,有点无从下手啊

米有啊,无用pd-ctl查看store还是只有三个

ping一下看看

能ping通

主要是看看k8s里面,pd-server的启动命令里有没有带上参数 -join
如果没带上,那就是k8s的pdAddress配置没生效,就从这边排查,如果带上了,就再从别的地方排查。