【TiDB 使用环境】测试环境
【TiDB 版本】v7.5.2
【遇到的问题:问题现象及影响】
TiDB主备集群间通过2个TiCDC节点进行数据同步,看社区问答主集群的一张表只会被一个TiCDC的一个processor的一个pipeline同步,但是目前观察到两个TiCDC节点的日志都有同一张表的region处理信息。是自己理解的有问题吗?请教各位大佬,对于TiDB和TiCDC的v7.5.2版本,TiCDC集群是以表的粒度还是表的region粒度进行均衡调度并同步的呢?
【TiDB 使用环境】测试环境
【TiDB 版本】v7.5.2
【遇到的问题:问题现象及影响】
TiDB主备集群间通过2个TiCDC节点进行数据同步,看社区问答主集群的一张表只会被一个TiCDC的一个processor的一个pipeline同步,但是目前观察到两个TiCDC节点的日志都有同一张表的region处理信息。是自己理解的有问题吗?请教各位大佬,对于TiDB和TiCDC的v7.5.2版本,TiCDC集群是以表的粒度还是表的region粒度进行均衡调度并同步的呢?
看他们的 region initial 间隔了7分钟左右,中间是发生了 region 调度吗?
默认按表力度分,一个表由一个 processor 处理,往 kafka 发的时候可以设置成按 region,
参考:https://docs.pingcap.com/zh/tidb/stable/ticdc-changefeed-config/#scheduler
嗯嗯,具体看了下,应该是出现了该表同步任务在多个TiCDC节点间频繁调度的现象,schedulerv3: burst add table”和“schedulerv3: slow table” 日志中这里应该就是提示。仔细对比了下,同一时刻确实只有一个TiCDC节点在同步该表,不过切换比较频繁,每过五分钟左右就会切一次TiCDC节点。
好的,感谢