为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:
【TiDB 版本】5.0.1
【问题描述】tispark插入200万数据到tidb异常慢
val df = spark.sql("""
select * from test limit 2000000
""")
df.write.
format("tidb").
option("tidb.user", "root").
option("tidb.password", "").
option("database", "tpch_test").
option("table", "target_table_orders").
mode("append").
save()
以上200万数据耗费了40多分钟,其中没有大字段
通过spark2-submit --master yarn --deploy-mode cluster --num-executors 8 --executor-cores 2 --executor-memory 8G 提交
若提问为性能优化、故障排查类问题,请下载脚本运行。终端输出的打印结果,请务必全选并复制粘贴上传。