请问ORACLE数据库中的数据怎么批量迁移到tidb里面

这个应该是ID缓存问题

cloudcanal

navicat选择导出成mysql sql,然后导入呢

ogg、kettle工具都可以迁数据

多少数据,几十G这个量级可以用navicate的数据传输,高级里面关了事务那个,表结构最好自己先建好
如果觉得不够快,可以多开几个窗口,传输不同的表

mysql几百G我都用cloudcanal往tidb迁,免费30天。同理oracle也可以

Oracle的 sqldeveloper工具可以到MySQL,应该也兼容tidb

cloudcanal吧

你这属于异构数据源,最好是导出csv或者sql后再迁移。也可以使用一些ETL工具进行迁移,比如datax或者streamsets等,再或者一些大数据平台的数据传输功能

文件导出导入、ogg、kettle

一次性了吗。cloudcanal可以

:thinking:官方不支持的,我们一边都用etl工具去做迁移,比如kettle等

创建好表,用csv或者用datax。或者etl工具,或者ogg

用这个办法,上T的数据都不在话下

ogg dts

ogg就可以,最合适的方式

csv如果字符集中如果有特殊字符, 会串行

– 数据量不大手撕csv
– 数据量一般ogg
– 数据量巨大。。还是官方工具吧

文本文件,dsg,ogg

三个步骤
1.结构迁移是重点,需要理解TiDB与Oracle字段类型的区别,使用方法,代码层做mapping后是否能够正确解析;
2.数据迁移,第一步完成后,数据迁移应该是最简单的,市面上各种开源的,官方的迁移工具,就字段对字段迁,分批次迁,开多线程迁,还是大家提的用csv导出迁(上亿行的系统不现实);
3.SQL匹配,也是最难得,存储过程自定义函数在TiDB上应该用不到,如果之前Oracle用到了,得改造成代码实现,有些不常用内置函数或插件实现的方法,在TiDB上可能不兼容,好有NULL值处理,排序规则,等等有区别的地方,迁移完成后肯定要连带着业务系统得整体测试。