Apache spark spark未在完成作业后删除临时目录

Apache spark spark未在完成作业后删除临时目录,apache-spark,Apache Spark,提交spark作业时,我遇到以下错误: java.io.IOException: Failed to delete: C:\Users\Me\AppData\Local\Temp\spark-7cfa4c84-2d14-4666-aa7f-9dc84474fe89 我已经安装了winutils二进制文件,并且已经按照运行了/tmp/hive上的chmod 777。我正在Windows 10 64位上运行spark 2.0.0版。我曾尝试以管理员身份运行,并仔细检查目录是否确实存在(确实存在)。

提交spark作业时,我遇到以下错误:

java.io.IOException: Failed to delete: C:\Users\Me\AppData\Local\Temp\spark-7cfa4c84-2d14-4666-aa7f-9dc84474fe89

我已经安装了winutils二进制文件,并且已经按照运行了
/tmp/hive
上的
chmod 777
。我正在Windows 10 64位上运行spark 2.0.0版。我曾尝试以管理员身份运行,并仔细检查目录是否确实存在(确实存在)。

我遇到了完全相同的问题,只是退出spark shell或运行任何示例。我尝试用--conf spark.local.dir来更改工作目录,以防出现特权问题,但也没有成功。如果有人有解决方案,请分享。我有完全相同的问题,只是退出spark shell或运行任何示例。我尝试用--conf spark.local.dir来更改工作目录,以防出现特权问题,但也没有成功。如果有人有解决方案,请分享。