drainer向kafka发送消息,死循环

为提高效率,提问时请提供以下信息,问题描述清晰可优先响应。

  • 【TiDB 版本】:2.1.7
  • 【问题描述】: drainer向kafka发送一条insert sql的Binlog消息,该sql的大小超过kafka设置的限制,被kafka拒绝,然后drainner一直重复往kafka发送,形成死循环,除了调大kafka的限制,有什么方法可以解除这个死循环。

1.停掉 drainer

2.建议根据需要调整 kakfka 的配置参数
https://pingcap.com/docs-cn/stable/reference/tidb-binlog/troubleshoot/error-handling/#drainer-同步数据到-kafka-时报错-kafka-server-message-was-too-large-server-rejected-it-to-avoid-allocation-error