Java 运行spark作业时选择JVM

Java 运行spark作业时选择JVM,java,hadoop,apache-spark,yarn,Java,Hadoop,Apache Spark,Yarn,如何将java路径传递给spark submit,以选择java_HOME中未默认的JVM?我不允许在我的环境中设置任何环境变量 请参阅“环境变量”一节 好的,看来使用SPARK\u Thread\u USER\u ENV是解决问题的方法之一。另外,似乎SetExecuteEnv可以用于此,但我没有尝试。好吧,正如我所说的,我希望避免显式设置JAVA_HOME。将其添加到spark配置文件中如何?好吧,我尝试显式设置JAVA_HOME,但似乎执行者使用bashrc中为hadoop/spark的根

如何将java路径传递给spark submit,以选择java_HOME中未默认的JVM?我不允许在我的环境中设置任何环境变量


请参阅“环境变量”一节

好的,看来使用SPARK\u Thread\u USER\u ENV是解决问题的方法之一。另外,似乎SetExecuteEnv可以用于此,但我没有尝试。

好吧,正如我所说的,我希望避免显式设置JAVA_HOME。将其添加到spark配置文件中如何?好吧,我尝试显式设置JAVA_HOME,但似乎执行者使用bashrc中为hadoop/spark的根用户定义的默认JAVA_HOME,所以我想知道是否真的有办法将JAVA_传递给执行者?