dm工具能够同步阿里云rds里mysql库的slow_log表csv格式的数据吗

dm工具能够同步阿里云rds里mysql库的slow_log表csv格式的数据吗?

你好,

可以使用新的 task 来确认下是否可以同步,这边建议将 mysql.slow_log 重名至下游数据库 test.slow_log 来存储。

dm 同步一般都是直接忽略 mysql.* 不知道单独同步 mysql.slow_log 有何特殊需求?

用dm-portal试了试是找不到mysql.*的任何表,有办法能同步吗?

你好,

请检查下同步规则,是否又进行过滤,

我这边的意思是,一般情况下,我们不去同步系统表,如果有需要可以进行同步的。下面是 dm 的同步规则,可以看下

https://pingcap.com/docs-cn/tidb-data-migration/stable/feature-overview/#black--white-table-lists

一个dm-works只能配置一个数据源吗?这样是不是要把tidb作为数据仓库的话有10个数据源就得有10台虚拟机部署10个dm-work?

你好,

目前一个 dm-worker 只能配置一个数据源,因为 dm-worker 中存在 source_id。

可以将 dm-worker 适当的放在一起,这个根据服务器负载来做即可