【 TiDB 使用环境】生产环境
【 TiDB 版本】5.4.3
使用grpc订阅cdc,Region数量为2400+,cdc变更量为500w+,所有Region从订阅到收到第一个心跳,总共耗时为20分钟。
请问有什么方法可以优化这个耗时吗?比如调整grpc的参数或者tikv cdc的参数
【 TiDB 使用环境】生产环境
【 TiDB 版本】5.4.3
使用grpc订阅cdc,Region数量为2400+,cdc变更量为500w+,所有Region从订阅到收到第一个心跳,总共耗时为20分钟。
请问有什么方法可以优化这个耗时吗?比如调整grpc的参数或者tikv cdc的参数
已经尝试调大
cdc.incremental-scan-concurrency
cdc.incremental-scan-speed-limit
cdc.incremental-scan-threads
三个参数,但没有优化的效果
可以尝试以下方法进行优化:
cdc.incremental-scan-concurrency
、cdc.incremental-scan-speed-limit
和cdc.incremental-scan-threads
这三个参数,但没有看到优化效果。除了这些参数,还有一些其他的参数可以尝试调整,例如cdc.region-concurrency
和cdc.region-split-check-diff
等。您可以根据实际情况逐个尝试调整这些参数,以找到最佳的配置。raftstore.apply-pool-size
和raftstore.store-pool-size
等参数来增加TiKV的并发处理能力。通常tikv推送数据不会是性能瓶颈,而是内部处理或同步到下游会比较容易出现瓶颈。
你可以参考我这个场景调优试试。
CDC涉及到源端和目的端,两个性能都要跟上才行,还有网络
cdc集群的配置需要按照推荐配置来
啊? 不是说cdc性能更好吗? 后期要下掉 tidb binlog 组件吗?