drainer向kafka发送消息,死循环
数据迁移
Binlog
Hacker_i7q46eO6
2020年04月14日18:04
#1
为提高效率,提问时请提供以下信息,问题描述清晰可优先响应。
【TiDB 版本】:2.1.7
【问题描述】: drainer向kafka发送一条insert sql的Binlog消息,该sql的大小超过kafka设置的限制,被kafka拒绝,然后drainner一直重复往kafka发送,形成死循环,除了调大kafka的限制,有什么方法可以解除这个死循环。
东北大胖子
2020年03月11日01:51
#2
1.停掉 drainer
2.建议根据需要调整 kakfka 的配置参数