估计是大量的插入导致region分裂,然后客户端缓存的region信息失效。
tikv压力较大,心跳消息太多,导致超时,进一步批量的region超时,都开始选举,消息就更多了。tidb一定时间内读取不到schema信息。具体你的集群多少region也看不出来。
可以调整下region的心跳频率:https://docs.pingcap.com/zh/tidb/v5.4/tikv-configuration-file#hibernate-regions
pd-heartbeat-tick-interval
也可以调整下region分裂的参数:
split-region-check-tick-interval
- 检查 region 是否需要分裂的时间间隔,0 表示不启用。
- 默认值:10s
- 最小值:0
最根本的还是要增加tikv的资源。