tikv到Tidb-server的流量过大,导致网络阻塞,有什么参数可以调整这种情况?

为提高效率,提问时请提供以下信息,问题描述清晰可优先响应。

  • 【TiDB 版本】:v3.0.1
  • 【问题描述】:tikv到Tidb-server的流量过大,导致网络阻塞。
    部署情况,总共4节点,机器配置64核、64GB内存、千兆网络。
    1个节点部署tidb-server、pd
    3个节点部署tikv
    平时连接数在300左右,在某个时间点 tidb-server节点,接收流量到到900Mb多,基本满流量运行
    qps情况

连接数情况

网络情况,tidb-server基本达到峰值117MB

当前版本运行采集脚本失败,获取不到采集信息

若提问为性能优化、故障排查类问题,请下载脚本运行。终端输出打印结果,请务必全选并复制粘贴上传。

  1. 如果是生产环境,建议升级到万兆网卡
  2. 如果 cpu 还有剩余,可以考虑开启 ## Compression type for gRPC channel: none, deflate or gzip. # grpc-compression-type = “none” 可以尝试使用压缩参数看看。 但是使用了压缩,可能会对延时有影响。

谢谢回复,我试试压缩效果。有个疑问,看qps基本上在50以内,为什么会有这么大流量,是扫描了大表的原因吗?目前常用的两个日志表数据量也就100多万。

您好,可以详细了解下 tidb 的读写流程,也有可能是 tikv 并发返回了大量的 key,可以尝试优化下慢查询。 https://book.tidb.io/session3/chapter4/read-write-metrics.html

另外生产环境网络是我们官网是有建议的,建议您这边使用万兆网络哈