Pyspark 属性错误:';SparkContext';对象没有属性';addJar';
我需要在pyspark字数代码中添加一些外部依赖库(Pyspark 属性错误:';SparkContext';对象没有属性';addJar';,pyspark,mqtt,Pyspark,Mqtt,我需要在pyspark字数代码中添加一些外部依赖库(spark-streaming-mqtt_2.10-1.5.2.jar)。我知道我们可以使用–jars属性在spark submit中添加外部JAR,或者使用pyspark shell运行外部JAR。但我想在我的代码或spark配置文件中添加这个jar。我发现我们有SparkContext.addJar()方法,可以包含在代码中 sc.addJar("spark-streaming-mqtt_2.10-1.5.2.jar") 但是上面的命令给
spark-streaming-mqtt_2.10-1.5.2.jar)。我知道我们可以使用–jars属性在spark submit中添加外部JAR,或者使用pyspark shell运行外部JAR。但我想在我的代码或spark配置文件中添加这个jar。我发现我们有SparkContext.addJar()
方法,可以包含在代码中
sc.addJar("spark-streaming-mqtt_2.10-1.5.2.jar")
但是上面的命令给了我错误:AttributeError:'SparkContext'对象没有属性'addJar'
我已尝试将此jar添加到Spark_default.config文件中,如下所示:
spark.driver.extraClassPath spark-streaming-mqtt_2.10-1.5.2.jar
spark.executor.extraClassPath spark-streaming-mqtt_2.10-1.5.2.jar
但这对我来说也不管用。我在网上查过,但没有得到任何有用的链接
我正在HDP集群中使用Spark 1.5.2和1个namenode和3个datanode
你能帮我解决这个问题吗。非常感谢您。spark.driver.extraClassPath
和spark.executor.extraClassPath
可以工作,但这应该是Hadoop节点的路径,因为这些文件没有上传,它们只是添加到spark Containers类路径中。通过在spark\u deafult.config中添加外部依赖项,我的做法是
spark.jars spark-streaming-mqtt_2.10-1.5.2.jar
现在我的工作是接受外部依赖