kettle使用tidb,数据量大时,kettle内存oom

kettle使用tidb,当符合条件的数据量达到400w后,kettle内存oom,咨询大家,有没有办法优化。oracle使用kettle,数据超过一个亿也是正常同步,而且同步效率很高,不知道为什么tidb一直出现oom

tidb的oom挺烦的。。
看看kettle有没有配置流式复制的

MySQL 会有同样的问题嘛?可以先尝试下 MySQL,因为 Oracle 与 TiDB 在 Java 中使用不同的 JDBC ,可以简单确认下是否是 JDBC 的行为导致的。

发生OOM的是kettle还是tidb server?

kettle进程OOM了,tidb服务正常,感觉是把符合条件的数据都加载到jvm内存里了,无法正常使用游标,流式复制

研究研究

mysql,pg都正常

几个方面看下:
1,提交记录数,10000;
2,数据库连接参数:
useServerPrepStmts=false
rewriteBatchedStatements=true
useCompression=true
3,并行:
右击 “START组件” 勾选Run Next Entries in Parallel,进行设置。

OOM可以减小提交记录数和缩小并行。

建议分批提交,这个和服务器内存关系挺大的,如果内存没有足够的大,就分批提交

此话题已在最后回复的 60 天后被自动关闭。不再允许新回复。