为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:
【 TiDB 使用环境】
【概述】压测TiDB,tps有时候高,有时候低,大概是1小时左右的周期
【背景】
【现象】性能一会儿高一会儿低
【业务影响】
【TiDB 版本】5.1.0
【附件】
监控.rar (6.3 MB)
-
TiUP Cluster Display 信息
-
TiUP Cluster Edit Config 信息
-
TiDB- Overview 监控
2 个赞
leeray
(Lileiaab)
2
麻烦把监控数据截图看看,目前给的信息太少,没办法判断具体原因呢。
一会高一会低是不是某台主机有消耗大量资源的定时任务在跑,从而周期性影响集群性能。
1 个赞
苏州刘三枪
3
tikv的机器配置发一下,qps和cpu的曲线很像,可能是CPU跑满了导致的。
1 个赞
苏州刘三枪
5
看一下这2个指标的配置是多少,有可能是这里的CPU使用满了。
gRPC.grpc-concurrency
readpool.unified.max-thread-count
3 个赞
grpc-concurrency = 24
max-thread-count=20
2 个赞
苏州刘三枪
7
尝试调大这2个参数跑一下试试,其他的监控指标看起来没啥异常。
2 个赞
这个coprocessor cache hit的图是我自己搞出来的,是个次数,不是比例。所以当qps低的时候,cache数目低也是正常。
store-pool-size和apply-pool-size是6。
通过压测真实业务的一个api测试。
网卡是万兆卡
我自己看监控,可能是和部分tikv有关。
2 个赞
监控过期了,找不到当时的监控信息了, 结帖了,等再遇到再说吧。感谢各位。
system
(system)
关闭
14
此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。