Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Scala 为什么Spark会因“值写入不是org.apache.Spark.sql.DataFrameReader[error]的成员”而失败?_Scala_Apache Spark_Apache Spark Sql - Fatal编程技术网

Scala 为什么Spark会因“值写入不是org.apache.Spark.sql.DataFrameReader[error]的成员”而失败?

Scala 为什么Spark会因“值写入不是org.apache.Spark.sql.DataFrameReader[error]的成员”而失败?,scala,apache-spark,apache-spark-sql,Scala,Apache Spark,Apache Spark Sql,我有两个几乎相同的数据写入数据库。scala语句,但是一个给我一个错误,另一个没有,我不知道如何修复它?有什么想法吗 这项声明是有效的 df_pm_visits_by_site_trn.write.format("jdbc").option("url", db_url_2).option("dbtable", "pm_visits_by_site_trn").option("user", db_user).option("password", db_pwd).option("truncate",

我有两个几乎相同的数据写入数据库。scala语句,但是一个给我一个错误,另一个没有,我不知道如何修复它?有什么想法吗

这项声明是有效的

df_pm_visits_by_site_trn.write.format("jdbc").option("url", db_url_2).option("dbtable", "pm_visits_by_site_trn").option("user", db_user).option("password", db_pwd).option("truncate","true").mode("overwrite").save()
这一个不工作,并抛出我编译错误

df_trsnss .write.format("jdbc").option("url", db_url_2).option("dbtable", "df_trsnss")               .option("user", db_user).option("password", db_pwd).option("truncate","true").mode("overwrite").save()
_dev.scala:464:值写入不是org.apache.spark.sql.DataFrameReader的成员[错误] df_trsnss.write.formatjdbc.optionurl, db_url_2.optiondbtable,trsnss.optionuser, db_user.optionpassword, db_pwd.optionRunState,true.modeoverwrite.save


如果我删除第二条write语句或只是简单地注释掉它,整个代码正在编译,没有错误。

根据错误消息,df_trsnss是一个DataFrameReader,而不是DataFrame。你可能忘了给load打电话了

val df_trsnss=spark.read.formatcsv

而不是

val df_trsnss=spark.read.formatcsv.load


根据错误消息,df_trsnss是一个数据帧读取器,而不是一个数据帧。你可能忘了给load打电话了

val df_trsnss=spark.read.formatcsv

而不是

val df_trsnss=spark.read.formatcsv.load