Apache spark pySpark v3.0.1的图形框架

Apache spark pySpark v3.0.1的图形框架,apache-spark,pyspark,graphframes,Apache Spark,Pyspark,Graphframes,我正在尝试将graphframes库与pySparkv3.0.1一起使用。(我在debian上使用vscode,但尝试从pyspark shell导入包也不起作用) 根据,使用$pyspark--packagesgraphframes:graphframes:0.6.0-spark2.3-s_2.11我应该能够使用它 此示例代码取自StackOverflow中的另一个示例代码,提出了相同的问题,尽管它的解决方案对我来说不起作用 localVertices=[(1,“A”),(2,“B”),(3,

我正在尝试将graphframes库与pySparkv3.0.1一起使用。(我在debian上使用vscode,但尝试从pyspark shell导入包也不起作用)

根据,使用
$pyspark--packagesgraphframes:graphframes:0.6.0-spark2.3-s_2.11
我应该能够使用它

此示例代码取自StackOverflow中的另一个示例代码,提出了相同的问题,尽管它的解决方案对我来说不起作用

localVertices=[(1,“A”),(2,“B”),(3,“C”)]
localEdges=[(1,2,“爱”),(2,1,“恨”),(2,3,“跟随”)]
v=sqlContext.createDataFrame(localVertices,[“id”,“name”])
e=sqlContext.createDataFrame(localEdge,[“src”、“dst”、“action”])
g=图形框架(v,e)
抛出错误

py4j.protocol.Py4JJavaError:调用o63.createGraph时出错。
java.lang.NoSuchMethodError:'scala.collection.mutable.ArrayOps scala.Predef$.refArrayOps(java.lang.Object[])'

您需要为Spark 3.0使用正确的graphframes版本。您使用了Spark 2.3(0.6.0-spark2.3-s_2.11)的图形框架,这导致了Spark版本冲突。您可以尝试0.8.1-spark3.0-s_2.12,它是Spark 3.0当前graphframes的最新版本

pyspark --packages graphframes:graphframes:0.8.1-spark3.0-s_2.12

在pyspark shell中工作。我在vscode中使用它时遇到问题。我会调查的谢谢@VectorXY您可能需要下载一个graphframes jar,并将其放入$SPARK\u HOME/jarsyeap中,这样就可以工作了。。。我试图从编辑器内部运行上面的shell脚本!再次感谢!