tikv、pd集群在报在报没有leader错

为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:
【 TiDB 使用环境】

【概述】 场景 + 问题概述

【背景】 做过哪些操作

【现象】 业务和数据库现象

【问题】 tikv、pd集群在报在报没有leader错
tikv:


pd:

【业务影响】

【 TiDB 版本】
5.1

1 个赞

集群什么状态?

都是正常状态

又是 k8s…

检查下各个pod 之间的网络…

helm安装部署的,网络大概率不会有什么问题

检查下吧

我进pod命令行直接ping物理机ip没问题,检查网络还有别的方式吗?

1 个赞

检查一个pd绑定的pv空间是否足够

这个应该是够的吧,有标准吗?

没问题,直接查网络问题吧,看下集群使用的网络组件,去查对应的日志看下


我进两个pod命令行互相ping不通,是正常的吗

肯定不正常了,都ping 不通,怎么通信?

了解了,我去仔细看看k8s的网络网卡机制,或者大佬有什么排查方法吗?

有问题 通信没有了,kubelet 查看下集群网络,在看下集群配置的子网地址是否准确 不会冲突。

有问题的这台是单节点,我在多节点上部署就不会报这个错,是否是单节点安装的问题?

k8s部署集群对节点是有要求的。

线上数据库最好不要放在k8s里 哈哈 维护起来太麻烦了

好的,基本可以定位问题了,要么是网卡问题,要么是单集群的问题,感谢:rose:

大佬,现在能ping通了,但是还是同样的报错,我也是纳闷了