首先说明下您提的问题,并不是一个通俗问题。
在您这个问题背后我只能大胆的猜测下
PD节点 作为 TIDB 集群的 原信息存储和 TSO 发放的核心节点,网络通信频繁是比较正常的
-
在数据写入时候 2PC 的 2 次 TSO 获取, 都需要在 PD Leader 节点获取。
-
tikv 上的数据存储 每一组 Region Group (默认 3 副本)都需要定期向 PD 同步心跳
-
每个存储节点也需要定期向 PD 同步 心跳
综上
如果 集群相关 region 较多 ,且存储有大量冷数据或半冷数据 建议开启 tikv 上 hibernate region 功能 ,减少 region 心跳,并同时调整 region down peer 的 同步时间从 5m 到 10m。
如果 从 TiDB 的监控面板 查看 PD TSO duration 延迟较高。需要排查是 pd leader 网络问题还是 PD 的资源配置不足
如果 PD leader 能满足 8C 2.2GMHZ 16G MEM 的需求 TSO 发放的效能在 百万量级
如果以上都没有回答您的问题请先按照如下 文档自行排查下。明确下是服务器硬件资源问题还是文档中的其他问题
TiDB 读性能慢
TiDB 写性能慢