Drainer异常退出导致实际状态与binlogctl不一致

【TiDB 版本】 2.1.6

【集群节点分布】 3台机器,每台机器部署1个tidb、1个pd、2个tikv、1个pump,第2台机器多部署1个drainer。

【问题描述】

drainer“异常”退出后,不会同步更新binogctl中的状态(仍然为online),导致重启集群执行ansible-playbook start.yml时pump无法启动。需要手动更新binlogctl中的状态为paused才可重启集群。

请问贵公司是否关注到该bug?新版本是否有解决方案?

请把报错日志贴一下

pump报错日志如下

在 pump 启动时,pump 会去通知所有状态为 online 的 drainer 自己上线了,当 drainer 服务有问题,可以重启 drainer,然后再启动 pump,如果 drainer 服务异常退出,但是通过 binlogctl 确认状态仍为 online 的话,建议在 github 上提 issue

请问在哪个github项目提这个issue比较合适?

https://github.com/pingcap/tidb-binlog