部分tikv节点GCworker CPU高

为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:

【TiDB 版本】4.0.12

【问题描述】
3节点tikv , 其中2个节点的gc-worker CPU利用率高,剩下1个该线程 CPU 利用率几乎为0






1、 什么原因导致GC 线程CPU利用率差异较大? 如果是Leader 写入不均衡 该如何找到这些region?
2、 官方描述禁用tikv_gc_auto_concurrency 但tidb表里并没有该参数设置,该如何调整

谢谢!


5月24日早上6.30后恢复正常

  1. 有可能是业务上进行了大量的删除操作导致,gc worker cpu 高,对业务上有什么影响吗?
  2. 如果觉得有影响,可以考虑限流
    https://docs.pingcap.com/zh/tidb/stable/garbage-collection-configuration#流控
  3. 升级到 v5.0 版本,对 gc 有优化。
  1. 这是属于一个测试环境 从生产用kafka同步的数据,这几张表的话按平时业务基本不会有大量删除,这个还需要确定
  2. tikv_gc_concurrency这个参数该怎么设置,tidb表里没有这个参数.

tidb里没有这个参数啊

update mysql.tidb set variable_value="false" where variable_name="tikv_gc_auto_concurrency";

将 tikv_gc_auto_concurrency 设置为 false 之后,等待一段时间,几分钟的样子,然后查询 mysql.tidb 表,就可以查询到 tikv_gc_concurrency 的配置了。

此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。