Apache spark Spark Worker/tmp目录
Im使用spark-2.1.1-bin-hadoop-2.7独立模式(由4个工人组成的集群,120g内存,总共32个核) 虽然我定义了Apache spark Spark Worker/tmp目录,apache-spark,Apache Spark,Im使用spark-2.1.1-bin-hadoop-2.7独立模式(由4个工人组成的集群,120g内存,总共32个核) 虽然我定义了spark.local.dirconf参数来写入/opt,但spark worker仍在继续写入/tmpdir,例如/tmp/spark-e071ae1b-1970-47b2-bfec-19ca66693768 有没有办法告诉spark worker不要写入/tmpdir?如果您需要更多信息,请让我知道..您能检查spark\u worker\u dir环境变量吗
spark.local.dir
conf参数来写入/opt
,但spark worker仍在继续写入/tmp
dir,例如/tmp/spark-e071ae1b-1970-47b2-bfec-19ca66693768
有没有办法告诉spark worker不要写入
/tmp
dir?如果您需要更多信息,请让我知道..您能检查spark\u worker\u dir
环境变量吗?启动工作进程,并将其设置为目录。您还可以使用--work dir
或-d
命令行选项。默认情况下,SPARK\u WORKER\u dir为:SPARK\u HOME/work
除了此dir之外,它还写入/tmpCan您可以签出java.io.tmpdir
java属性吗?谢谢@JacekLaskowski!那是指向/tmp
,我会更改它。