Oozie pyspark操作使用Spark 1.6而不是2.2
当使用spark2从命令行运行时,请提交其在Spark 2.2.0版下的运行。但是当我使用oozie spark操作时,它在spark版本1.6.0下运行,失败时出现错误TypeError:“JavaPackage”对象不可调用 下面是我的oozie spark动作Oozie pyspark操作使用Spark 1.6而不是2.2,pyspark,oozie,Pyspark,Oozie,当使用spark2从命令行运行时,请提交其在Spark 2.2.0版下的运行。但是当我使用oozie spark操作时,它在spark版本1.6.0下运行,失败时出现错误TypeError:“JavaPackage”对象不可调用 下面是我的oozie spark动作 <!-- Spark action first --> <action name="foundationorder" cred="hcat"> <spark xmlns="uri
<!-- Spark action first -->
<action name="foundationorder" cred="hcat">
<spark xmlns="uri:oozie:spark-action:0.1">
<job-tracker>${jobTracker}</job-tracker>
<name-node>${nameNode}</name-node>
<job-xml>${hiveConfig}</job-xml>
<master>yarn-cluster</master>
<mode>cluster</mode>
<name>OrderFill</name>
<jar>${envRoot}/oozie/scripts/pyscripts/orders_fill.py</jar>
<spark-opts>--py-files ${envRoot}/oozie/scripts/pyscripts/order_fill.zip
--files ${hiveConfig}
--conf spark.yarn.appMasterEnv.SPARK_HOME=/data/2/parcels/SPARK2-2.2.0.cloudera4-1.cdh5.13.3.p0.603055/lib/spark2/bin/
--conf spark.executorEnv.SPARK_HOME=/data/2/parcels/SPARK2-2.2.0.cloudera4-1.cdh5.13.3.p0.603055/lib/spark2/bin/
</spark-opts>
<arg>${Arg1}</arg>
<arg>${Arg2}</arg>
<arg>${Arg3}</arg>
</spark>
<ok to="sendEmailKill"/>
<error to="sendEmailKill"/>
</action>
${jobTracker}
${nameNode}
${hiveConfig}
纱线团
簇
订单填充
${envRoot}/oozie/scripts/pyscripts/orders\u fill.py
--py文件${envRoot}/oozie/scripts/pyscripts/order_fill.zip
--文件${hiveConfig}
--conf spark.warn.appMasterEnv.spark_HOME=/data/2/parcels/SPARK2-2.2.0.cloudera4-1.cdh5.13.3.p0.603055/lib/SPARK2/bin/
--conf spark.executenv.spark_HOME=/data/2/parcels/SPARK2-2.2.0.cloudera4-1.cdh5.13.3.p0.603055/lib/SPARK2/bin/
${Arg1}
${Arg2}
${Arg3}
我在job.properties文件中提到了oozie.action.sharelib.for.spark=spark2
请建议如何强制Oozie使用spark2询问多个但类似的问题对您没有帮助,请参见。您使用哪种发行版-CDH、HDP、CDP、Apache、定制版?发行版和/或Oozie的哪个版本?如果是Cloudera/Horton,你在他们的论坛上搜索过这类问题吗?