集群卡住两次,出现两批次慢查询

【 TiDB 使用环境】生产环境
【 TiDB 版本】v5.4.3
【遇到的问题】
今天下午14点04分50多秒和14点13分出现两批慢查询,尤其是14点04分那次,但是实际上业务量并不高,qps不到3万,查看相关监控如下
dashboard慢查询


qps监控

cpu,内存,io等监控都比较正常,但是如下几个监控有异常,官方文档没有查到这几个监控指标的含义,所以不太懂
tikv-details - scheduler-key_mvcc界面

scheduler-txn_heart_neat

【复现路径】做过哪些操作出现的问题
正常的业务

【问题现象及影响】
出现很多慢查询,集群卡住两次,怀疑是网络问题,但是想知道如何从监控确认是网络问题

【附件】

请提供各个组件的 version 信息,如 cdc/tikv,可通过执行 cdc version/tikv-server --version 获取。

  • 看看region 的状态和数量是否有异常

  • MVCC key 比较多,看看最近是否有大量的删除操作

和业务侧也沟通了下,说是没有大量删除操作

image

这里有空的 region呢

空region 一般都是大量删除导致的 :cowboy_hat_face:

看之前的empty region一直是挺多,3千多 :joy:

这问题我们也遇到了 tidb的jdbc设置问题 得用8.0 30版本的jdbc 还得用 优化模式

我给你找找连接 我们当时为这个问题纠结了很久

要配置这个优化参数 useConfigs = maxPerformance

https://docs.pingcap.com/zh/tidb/v6.3/java-app-best-practices 这里

多谢 :+1:,学习下

学习 :+1: :raising_hand_man:

此话题已在最后回复的 60 天后被自动关闭。不再允许新回复。