tidbbinlog同步有点绕,求解惑

有两个tidb集群:
10.18.xx.xx-生产
10.16.xx.xx-容灾
两边都搭好pump了
从库也用lighting恢复好了
pos号也有:444969304030707734
两边的binlog都已经开启了true

请问如果要从主开始同步到从
是需要在主节点还是从节点配置drainer?(我理解的是要主库配置,然后写POS,就传下去了,但看了好多都说从节点配)
如果是从节点配置,怎么去关联主库?

drainer_servers:

  • host: 10.16.xx.xx
    ssh_port: 22
    port: 8249
    deploy_dir: /tidbdata/binlog/drainer-8249/data
    data_dir: /tidbdata/binlog/drainer-8249
    log_dir: log
    config:
    initial-commit-ts: 444969304030707734
    syncer.db-type: “tidb”
    syncer.to.host: “10.16.xx.xx”
    syncer.to.user: “drainer”
    syncer.to.password: “xxx”
    syncer.to.port: 4000
    arch: amd64
    os: linux

drainer 是在主集群配置的,写好下游对应的ip,端口,账号密码等信息就可以了。具体配置方法可以参考官方文档:
https://docs.pingcap.com/zh/tidb/stable/deploy-tidb-binlog

扩容进去就OK了吗,后续不用start什么程序或者job之类的东西吧

drainer节点扩到主集群里面,你说的这个应该指的是drainer节点放在从集群的数据中心,总结一下就是drainer机器和从库放一起,但是实例是扩容到主库

集群里有pump+drainer了,下游直接是从库

是的,按照配置扩容好pump,drainer 就开始同步了,可以通过show drainer status 查看同步状态

如果有pump,在主库扩容一个drainer,文件信息写下游的,你可以理解在主库建立了一个同步通道到下游。
我理解的pump是接收各个tidb server sql日志的,drainer是整个pump日志文件的,drainer可以选择写文件和下游库。