处理spark java后生成空CSV文件
我使用Spark从数据库中获取一些数据,然后创建一个csv文件作为这些数据的输出,如下所示: dataToWrite.repartition(1.write().format(“csv”).option(“delimiter”,“;”) .option(“header”,“true”).mode(SaveMode.Overwrite).save(filerPath) 这很好,当我在本地(使用Eclipse)启动我的应用程序时,我有我的CSV文件。但是当我部署应用程序并在Spark服务器中启动它时,我有一个空文件 谁能帮帮我吗处理spark java后生成空CSV文件,java,apache-spark,Java,Apache Spark,我使用Spark从数据库中获取一些数据,然后创建一个csv文件作为这些数据的输出,如下所示: dataToWrite.repartition(1.write().format(“csv”).option(“delimiter”,“;”) .option(“header”,“true”).mode(SaveMode.Overwrite).save(filerPath) 这很好,当我在本地(使用Eclipse)启动我的应用程序时,我有我的CSV文件。但是当我部署应用程序并在Spark服务器中启动它时