为提高效率,提问时请提供以下信息,问题描述清晰可优先响应。
- 【TiDB 版本】:v4.0.8
- 【问题描述】:
我通过Spark的write.jdbc的方式,向TiDB中写入了几百G的数据。我看热点图,发现有很多我没有建立的表,占了很多写入量。不太清楚是怎么回事。能帮我看下我的数据写入有问题吗?
pdw库是我真正写入的库
table_1367之类的表或者库,我没有建立过,是系统库吗?
为提高效率,提问时请提供以下信息,问题描述清晰可优先响应。
Spark 的 write jdbc 写入是通过 TiSpark 组件写入的么
table_xxx 这种不是系统库,应该不是 TiDB 自己生成的。
不是通过TiSpark写的,就是普通的Spark.write.format(jdbc)写的
TiSpark 写是不是会更快?
这个可以具体测试一下性能看下实际的情况
连接到 TiDB 中是看不到这些库和表的是吧?如果是的话,这个集群是升级上来的集群,还是一开始就部署为 4.0.8 版本的集群?
之前有一个 dashboard 热力图 BUG 的帖子,可以确认一下