LBX流鼻血
(Hacker N0e Er Xxz)
1
有两个tidb集群:
10.18.xx.xx-生产
10.16.xx.xx-容灾
两边都搭好pump了
从库也用lighting恢复好了
pos号也有:444969304030707734
两边的binlog都已经开启了true
请问如果要从主开始同步到从
是需要在主节点还是从节点配置drainer?(我理解的是要主库配置,然后写POS,就传下去了,但看了好多都说从节点配)
如果是从节点配置,怎么去关联主库?
drainer_servers:
- host: 10.16.xx.xx
ssh_port: 22
port: 8249
deploy_dir: /tidbdata/binlog/drainer-8249/data
data_dir: /tidbdata/binlog/drainer-8249
log_dir: log
config:
initial-commit-ts: 444969304030707734
syncer.db-type: “tidb”
syncer.to.host: “10.16.xx.xx”
syncer.to.user: “drainer”
syncer.to.password: “xxx”
syncer.to.port: 4000
arch: amd64
os: linux
Jasper
(Jasper)
2
drainer 是在主集群配置的,写好下游对应的ip,端口,账号密码等信息就可以了。具体配置方法可以参考官方文档:
https://docs.pingcap.com/zh/tidb/stable/deploy-tidb-binlog
LBX流鼻血
(Hacker N0e Er Xxz)
3
扩容进去就OK了吗,后续不用start什么程序或者job之类的东西吧
drainer节点扩到主集群里面,你说的这个应该指的是drainer节点放在从集群的数据中心,总结一下就是drainer机器和从库放一起,但是实例是扩容到主库
集群里有pump+drainer了,下游直接是从库
Jasper
(Jasper)
6
是的,按照配置扩容好pump,drainer 就开始同步了,可以通过show drainer status 查看同步状态
如果有pump,在主库扩容一个drainer,文件信息写下游的,你可以理解在主库建立了一个同步通道到下游。
我理解的pump是接收各个tidb server sql日志的,drainer是整个pump日志文件的,drainer可以选择写文件和下游库。