我是否可以在执行spark的时候指定pd的地址啊
spark-shell --jars hdfs://nameservice1/sparklib/* --conf “spark.tispark.pd.addresses=127.0.0.1:2379”
如果可以的话。我去读取别人的tidb集群,怎么设定用户名和密码啊
我只指定库与表
还有就是在spark写tidb的时候可不可以配制成让其去读取spark.tispark.pd.addresses
我不用我在代码里写入地址用户名密码这些啊
df.write.
format("tidb").
option("tidb.addr", "127.0.0.1").
option("tidb.port", "4000").
option("tidb.user", "root").
option("tidb.password", "").
option("database", "tpch").
option("table", "target_orders").
mode("append").
save()