Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/scala/19.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Java ChangeFileModeByMask错误(5):访问被拒绝_Java_Scala_Apache Spark_Etl - Fatal编程技术网

Java ChangeFileModeByMask错误(5):访问被拒绝

Java ChangeFileModeByMask错误(5):访问被拒绝,java,scala,apache-spark,etl,Java,Scala,Apache Spark,Etl,我访问了MySQL数据库并获取了表。 在那之前一切都很顺利 当我试图以文本或其他格式保存记录时,我得到了错误 退出代码异常退出代码=1:“通过掩码错误更改文件模式”(5):访问被拒绝。 任何帮助都将不胜感激 object jdbcConnect { def main(args: Array[String]) { val url="jdbc:mysql://127.0.0.1:3306/mydb" val username = "root" val password = "

我访问了MySQL数据库并获取了表。 在那之前一切都很顺利

当我试图以文本或其他格式保存记录时,我得到了错误 退出代码异常退出代码=1:“通过掩码错误更改文件模式”(5):访问被拒绝。

任何帮助都将不胜感激

object jdbcConnect {
 def main(args: Array[String]) {

   val url="jdbc:mysql://127.0.0.1:3306/mydb" 
   val username = "root"
   val password = "token_password"
   Class.forName("com.mysql.jdbc.Driver").newInstance


   //DriverManager.registerDriver(new com.mysql.jdbc.Driver());

   val conf = new SparkConf().setAppName("JDB CRDD").setMaster("local[2]").set("spark.executor.memory", "1g")

    val sc = new SparkContext(conf)
    val myRDD = new JdbcRDD( sc, () => 
    DriverManager.getConnection(url,username,password) ,
  "select s_Id,issue_date from store_details limit ?, ?",
  0, 10, 1, r => r.getString("s_Id") + ", " + r.getString("issue_date"))

   myRDD.foreach(println)
   myRDD.saveAsTextFile("C:/jdbcrddexamplee")

  }
}
错误

18年7月17日11:10:19错误执行者:任务0.0在阶段2.0中出现异常 (TID 2)ExitCodeException exitCode=1:ChangeFileModeByMask错误(5): 访问被拒绝

位于org.apache.hadoop.util.Shell.runCommand(Shell.java:582) org.apache.hadoop.util.Shell.run(Shell.java:479)位于 org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:773) 位于org.apache.hadoop.util.Shell.execCommand(Shell.java:866) org.apache.hadoop.util.Shell.execCommand(Shell.java:849)位于 org.apache.hadoop.fs.RawLocalFileSystem.setPermission(RawLocalFileSystem.java:733) 在 org.apache.hadoop.fs.RawLocalFileSystem$LocalFSFileOutputStream。(RawLocalFileSystem.java:225) 在 RawLocalFileSystem$LocalFSFileOutputStream.(RawLocalFileSystem.java:209) 在 org.apache.hadoop.fs.RawLocalFileSystem.createOutputStreamWithMode(RawLocalFileSystem.java:307) 在 org.apache.hadoop.fs.RawLocalFileSystem.create(RawLocalFileSystem.java:296) 在 org.apache.hadoop.fs.RawLocalFileSystem.create(RawLocalFileSystem.java:328)


这似乎是一个权限错误。我的愚蠢


确保以管理员身份运行任何操作。虽然我会建议使用dataframe而不是RDD:D

但您是否尝试过在其他不同的位置进行写作?是的。。。我试过了,但运气不好