Eclipse包括spark Python包
我在Eclipse中使用Spark和Python 我需要包含相同的包:com.databricks:spark-avro_2.10:2.0.1 我如何在Eclipse中做到这一点 在eclipse中,我运行以下代码:Eclipse包括spark Python包,python,eclipse,apache-spark,pydev,Python,Eclipse,Apache Spark,Pydev,我在Eclipse中使用Spark和Python 我需要包含相同的包:com.databricks:spark-avro_2.10:2.0.1 我如何在Eclipse中做到这一点 在eclipse中,我运行以下代码: spark-submit --packages com.databricks:spark-avro_2.10:2.0.1 spark_sql.py 而且它起作用了。在Eclipse中,我遇到以下错误: java.lang.ClassNotFoundException: Faile
spark-submit --packages com.databricks:spark-avro_2.10:2.0.1 spark_sql.py
而且它起作用了。在Eclipse中,我遇到以下错误:
java.lang.ClassNotFoundException: Failed to find data source: com.databricks.spark.avro. Please use Spark package http://spark-packages.org/package/databricks/spark-avro
但是,即使使用“”,代码也不会运行
谢谢