Dataframe 如何将spark数据框写入clickhouse

Dataframe 如何将spark数据框写入clickhouse,dataframe,apache-spark,clickhouse,Dataframe,Apache Spark,Clickhouse,我不知道如何将df直接写入clickhouse, 我没有找到类似的答案。 有人帮帮我~写入clickhouse数据库类似于通过JDBC写入任何其他数据库。只需确保将ClickHouseDriver类导入到您的代码中。 用户名和密码被传递到ckProperties对象中。 write命令如下所示,您可以替换字符串中的数据库名称: val df = spark.read.parquet(path) val IP ="190.176.35.145" val port = "9000" val tab

我不知道如何将df直接写入clickhouse, 我没有找到类似的答案。
有人帮帮我~

写入clickhouse数据库类似于通过JDBC写入任何其他数据库。只需确保将ClickHouseDriver类导入到您的代码中。 用户名和密码被传递到ckProperties对象中。 write命令如下所示,您可以替换字符串中的数据库名称:

val df = spark.read.parquet(path)
val IP ="190.176.35.145"
val port = "9000" 
val table = "table1"
val user = "defalut"
val password = "default"

为什么不像这样使用基于scala的clickhouse客户端呢?
import ru.yandex.clickhouse._

val jdbcUrl = "jdbc:clickhouse://190.176.35.145:9000/your_database_name"

val ckProperties = new Properties()

df.write.mode("append").option("driver", "ru.yandex.clickhouse.ClickHouseDriver").jdbc(jdbcUrl, table = "table1", ckProperties)