Scala Neo4j火花连接器错误:import.org.Neo4j.Spark.\uObject Neo4j在包org中找不到

Scala Neo4j火花连接器错误:import.org.Neo4j.Spark.\uObject Neo4j在包org中找不到,scala,apache-spark,neo4j,Scala,Apache Spark,Neo4j,我的scala代码在spark中运行,连接到mac上的Neo4j。我想在我的windows计算机上测试它,但似乎无法让它运行,我不断收到错误: Spark context Web UI available at http://192.168.43.4:4040 Spark context available as 'sc' (master = local[*], app id = local-1508360735468). Spark session available as 'spark'.

我的scala代码在spark中运行,连接到mac上的Neo4j。我想在我的windows计算机上测试它,但似乎无法让它运行,我不断收到错误:

Spark context Web UI available at http://192.168.43.4:4040
Spark context available as 'sc' (master = local[*], app id = local-1508360735468).
Spark session available as 'spark'.
Loading neo4jspark.scala...
<console>:23: error: object neo4j is not a member of package org
       import org.neo4j.spark._
              ^

表示它找到了所有依赖项,但代码在使用neo时抛出了错误。不知道还可以尝试什么?我不知道为什么这在我的windows设备和mac上都不起作用。Spark 2.2版本相同,neo4j已经启动并运行相同的版本,scala也一样,甚至java(除了一些小的版本差异)

这是一个已知的版本(与相关版本),它是Spark 2.2.1版本的一部分。

啊,好的(我以前在windows上使用过这个版本),所以我想我需要将这些JAR添加到类路径中作为一种解决方法?我确实获得了最新版本并尝试了它,但仍然出现了错误。我是否需要手动找到这些JAR并将它们移动到windows拥有的类路径?@Codejoy:Spark 2.2.1尚未发布。误读:)获得了2.1.1 ha。我想我正在等待2.2.1的发布
changeScoreList: java.util.List[Double] = []
<console>:87: error: not found: value neo
                         val initialDf2 = neo.cypher(noBbox).partitions(5).batch(10000).loadDataFrame
                                          ^
<console>:120: error: not found: value neo
spark-shell --conf spark.neo4j.bolt.password=TestNeo4j --packages neo4j-contrib:neo4j-spark-connector:2.0.0-M2,graphframes:graphframes:0.2.0-spark2.0-s_2.11 -i neo4jspark.scala