【 TiDB 使用环境】生产环境
【 TiDB 版本】7.1.0
使用tispark走两阶段提交写入tikv, 出现leader drop, 排查发现tikv apply wait特别高, 但是appy 线程 cpu并不高,如下图, 请问下可能是什么原因导致apply wait特别高
线程池设置如下:
raftstore.apply-pool-size=5
raftstore.store-pool-size=4
参考文档:https://docs.pingcap.com/zh/tidb/stable/latency-breakdown#异步写入
建议排查下集群所有tikv 节点的写入是否正常:
- Apply wait duration:apply 的等待时间的直方图
- Apply wait duration per server:每个 TiKV 实例上每个 apply 的等待时间的直方图
https://docs.pingcap.com/zh/tidb/stable/grafana-tikv-dashboard#raft-propose
然后排查以下两点:
参考文档:https://docs.pingcap.com/zh/tidb/stable/tidb-troubleshooting-map#45-tikv-写入慢
1 个赞
这些我都排查过了,raftstore和apply线程池都正常,单个apply线程也看了没问题,怀疑是apply wait不是在等待线程池,而是等待其它的(限流或者锁?),请问有没有相关排查思路
没有更多的资料,没办法判断了,只能靠你自己了
有没有TiKV 节点的磁盘写入速度较慢的现象呢,查查磁盘的 IOPS。
找到原因了么,楼主能否分享下,我们遇到这个问题,都准备换服务器了