drainer服务器故障后重装系统,恢复drainer失败

为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:

【概述】场景+问题概述
集群原来是开启了drainer,后来drainer服务器磁盘挂了,磁盘恢复后,想重启drainer服务
执行tiup cluster start xxxx-cluster -R drainer,报错:


从中控机上ssh到drainer是免密能通的(我这里比较特别,中控机和drainer是同一个机器)
请问需要怎么操作?谢谢!

【背景】做过哪些操作

【现象】业务和数据库现象

【业务影响】

【TiDB 版本】
v5.0.0
【附件】

  1. TiUP Cluster Display 信息

  2. TiUP Cluster Edit Config 信息

  3. TiDB- Overview 监控

  • 对应模块日志(包含问题前后1小时日志)

若提问为性能优化、故障排查类问题,请下载脚本运行。终端输出的打印结果,请务必全选并复制粘贴上传。

drainer服务重装后原来的二进制文件那些都没有,请问,是不是可以先执行scale-in把drainer摘掉,再scale-out把drainer部署上?谢谢!

  1. 目前 drainer 节点的状态是什么? 如果tiup display 中无法识别,那么可以试试先缩容,再扩容。 或者你可以直接先扩容一个节点,正常后,再缩容这个节点。
  2. 恢复后,可以参考文档
    https://docs.pingcap.com/zh/tidb/stable/tidb-binlog-faq#drainer-机器发生故障下游数据还在如何在新机器上重新部署-drainer

drainer是down状态


我想直接运行deploy,让包下载到drainer机器,不知道会不会影响其他机器?谢谢!

解决了,谢谢!

方便把您的步骤总结下吗?多谢

因为tiup能查到drainer是down状态,但drainer上二进制都没有了,scale-in也报错了,所以就想先清掉配置,再扩容,具体如下:
1,干掉driner相关配置
vi .tiup/storage/cluster/clusters/{cluster-name}/meta.yaml
2,扩容drainer
编辑scale-out.yml
drainer_servers:

  • host: 192.168.1.6
    ssh_port: 23122
    port: 8249
    deploy_dir: /data_back/drainer_deploy-8249
    data_dir: /data_back/drainer_data-8249
    commit_ts: -1
    config:
    syncer.db-type: tidb
    syncer.ignore-schemas: INFORMATION_SCHEMA,PERFORMANCE_SCHEMA,mysql
    syncer.to.host: xxx
    syncer.to.password: xxx
    syncer.to.port: xxx
    syncer.to.user: xxx
    arch: amd64
    os: linux

3,扩容: tiup cluster scale-out {cluster-name} scale-out.yaml

再查看监控都正常,下游也实时同步了数据。

1 个赞

此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。