资源充足,但是tikv有一些warn报警,请教大佬如何优化性能 tidb_tikvclient_backoff_seconds_count region_miss

【 TiDB 使用环境】生产环境
【 TiDB 版本】v6.5.0
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
【资源配置】
【附件:截图/日志/监控】




节点warn日志:
tikv:
[2023/03/20 19:30:25.553 +08:00] [WARN] [subscription_track.rs:143] [“trying to deregister region not registered”] [region_id=1391586]
[2023/03/20 19:32:01.364 +08:00] [WARN] [endpoint.rs:780] [error-response] [err=“Region error (will back off and retry) message: "region 1298525 is missing" region_not_found { region_id: 1298525 }”]
[2023/03/20 19:32:46.285 +08:00] [WARN] [endpoint.rs:780] [error-response] [err=“Region error (will back off and retry) message: "peer is not leader for region 1300428, leader may Some(id: 1393359 store_id: 101059)" not_leader { region_id: 1300428 leader { id: 1393359 store_id: 101059 } }”]

没有提供告警信息呢

tidb_tikvclient_backoff_seconds_count region miss


https://docs.pingcap.com/zh/tidb/stable/hardware-and-software-requirements#开发及测试环境
没有达到生产环境的最低配置呢,能先把配置升上去吗?

我的资源大把的剩余,远不是瓶颈


https://docs.pingcap.com/zh/tidb/stable/tidb-troubleshooting-map#72-tikv
看这个貌似对业务没啥影响呢

是的,没有就是会有warn报警,让人难受,觉得业务一旦写入多了会各种问题

你看得懂这个图说明你真的懂了

我告诉你是什么 读写超过你集群承受力了

1 个赞

大佬 能科普一下吗?

region 产生分裂行为或者leader切换,请求的携带的信息过时了产生的warning吧

通常来说这些warn信息是没什么影响的,是正常的内部region调度处理流程,一般交给集群自身处理即可。
你如果不放心,可以关注下集群的QPS、延迟等情况

你这个报错如果是读io限制他是过段时间自己会恢复的 不处理他自己就好了

image
以前我这 也经常报这个错误。

  1. 您哪里报错的时候有什么频繁 业务没??

还有就是 是否有大表,比如 十几亿的大表,进行频繁DML。 查看下统计信息,看看是不是进行analyze表了

也不算很大量吧,20多亿的分区表 ,每秒一百多个insert

analyze 配置发下???分析是不是analyze导致的

select * from information_schema.analyze_status;
select * from mysql.analyze_jobs;