Apache spark 无法将数据帧另存为配置单元表,引发“未找到文件”异常
当我试图在pyspark中将数据帧保存为配置单元表时Apache spark 无法将数据帧另存为配置单元表,引发“未找到文件”异常,apache-spark,hive,pyspark,pyspark-sql,Apache Spark,Hive,Pyspark,Pyspark Sql,当我试图在pyspark中将数据帧保存为配置单元表时 df_writer.saveAsTable('hive_table', format='parquet', mode='overwrite') 我遇到以下错误: 原因:org.apache.hadoop.mapred.InvalidInputException:输入路径 不存在: hdfs://hostname:8020/apps/hive/warehouse/testdb.db/hive_table 在 org.apache.ha
df_writer.saveAsTable('hive_table', format='parquet', mode='overwrite')
我遇到以下错误:
原因:org.apache.hadoop.mapred.InvalidInputException:输入路径
不存在:
hdfs://hostname:8020/apps/hive/warehouse/testdb.db/hive_table 在
org.apache.hadoop.mapred.FileInputFormat.singleThreadedListStatus(FileInputFormat.java:287)
在
org.apache.hadoop.mapred.FileInputFormat.listStatus(FileInputFormat.java:229)
我有路走到'hdfs://hostname:8020/apps/hive/warehouse/testdb.db/"
请提供您的输入尝试使用DataFrameWriter作为
df.write.mode(SaveMode.Append).insertInto(s"${dbName}.${t.table}")