想咨询一下10T左右数据的迁移方案

【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
【资源配置】
【附件:截图/日志/监控】

想咨询一下数据迁移的服务部署方案,我们需要从31个mysql数据库供10T左右的数据同步到TiDB中,怎么部署配置会比较快

这个得用dm了

dumpling 导出
lighting 导入
dm 做实时同步

https://docs.pingcap.com/zh/tidb/stable/migrate-large-mysql-to-tidb

这是一个经典的MySQL迁移到TiDB的问题,思路大概如下:

  • 使用 Dumpling +TiDB Lightning 物理导入模式进行全量数据迁移。
  • 完成全量数据迁移后,再使用 DM 完成增量数据迁移。

之后应用切换到TiDB,可以停服切换或者业务实现双写平滑迁移。

1 个赞

先全量:使用 Dumpling +TiDB Lightning
再增量:使用 DM 完成增量数据迁移

官方文档有详细教程
https://docs.pingcap.com/zh/tidb/stable/migrate-large-mysql-to-tidb

1 个赞

可以直接mysqldump导出,导入到tidb,然后根据导出的时间点,使用DM 从这个时间点开始实时同步。我这边就是这么做的,但是数据量没这么大,注意一点就是mysql的user表要看两边一不一样。我遇到过user表不一样的情况

31个合并到TIDB的一个库里,还是1个1个的迁移?全量dumpling,增量CDC

一个个迁移吧,做11个任务,过滤同步就行了

一个个做就行。库名不要重复

我们之前也有个场景,差不多7t左右数据,用的dumpling导出,lightning导入,如果后续还想保持集群直接的数据一致用的DM,不过dumpling和lightning导出导入的时候最好分批。

1.用Dumpling和Lightning做全量数据的导出和导入
2.DM去做后续增量数据的迁移

使用BR比较合适,大数据量,高性能。可以参考如下链接https://docs.pingcap.com/zh/tidb/stable/migrate-from-tidb-to-tidb

上游mysql怎么br

参考如下这篇:从大数据量 MySQL 迁移数据到 TiDB
https://docs.pingcap.com/zh/tidb/stable/migrate-large-mysql-to-tidb

你是机器人么? 都不看内容就恢复。

确实像机器人,链接文档里都没有提BR

1 个赞

我想问下不看内容你是如何做到回复的,人家问的是大数据量的迁移方案,难道我非要把所有的回复看完才有回答的权利吗

你回答问题不过大脑吗,麻烦看下BR能否做大数据量的迁移方案在回答好吧。只是源不是mysql而已,后来不是纠正了嘛