tispark写入10万记录OK,50万开始报错

rdd没找到特别好的拆分方法,spark sql尝试了下,不支持limit offset,单纯limit没法将一个完整数据集拆分成多个不重复不漏的子集,有什么好的建议么?感觉目前用tispark存储百万级数据到tidb,和自己当初设想的差距有点大。