Scala 如何在windows的spark shell中导入play framwork jar?
我正在使用windows机器并安装spark和scala进行学习。对于需要处理json输入数据的spark sqlScala 如何在windows的spark shell中导入play framwork jar?,scala,apache-spark,Scala,Apache Spark,我正在使用windows机器并安装spark和scala进行学习。对于需要处理json输入数据的spark sql scala> sc res4: org.apache.spark.SparkContext = org.apache.spark.SparkContext@7431f4b8 scala> import play.api.libs.json._ <console>:23: error: not found: value play import
scala> sc
res4: org.apache.spark.SparkContext = org.apache.spark.SparkContext@7431f4b8
scala> import play.api.libs.json._
<console>:23: error: not found: value play
import play.api.libs.json._
^
scala>
scala>sc
res4:org.apache.spark.SparkContext=org.apache.spark。SparkContext@7431f4b8
scala>导入play.api.libs.json_
:23:错误:未找到:值播放
导入play.api.libs.json_
^
斯卡拉>
如何在spark shell命令中导入播放api。如果您想在使用
spark shell
时使用其他库,则需要使用--jars
和/或--packages
运行spark shell
命令。例如,要在spark shell中使用play,请运行以下命令
spark-shell --packages "com.typesafe.play":"play_2.11":"2.6.19"
有关详细信息,您可以使用
spark shell-h
。我希望有帮助 如果要在使用spark shell
时使用其他库,则需要使用--jars
和/或--packages
运行spark shell
命令。例如,要在spark shell中使用play,请运行以下命令
spark-shell --packages "com.typesafe.play":"play_2.11":"2.6.19"
有关详细信息,您可以使用
spark shell-h
。我希望有帮助 您可以创建build.sbt,其中包含播放作为依赖项。然后加载sbt控制台,它应该可以工作。检查这个:@ShankarShastri。谢谢。在maven jar中,我们在mvn中提供org.ocpsoft.common api 1.0.5.Final。如何在sbt文件中提供相同的条目。您是否可以共享build.sbt,我可以创建一个答案并将其发回。您的spark安装路径中应该有一个称为jars目录的目录。在我的Mac电脑中,它位于SPARK_HOME/libexec目录下。您能在该目录中复制所需的jar并重新启动spark shell吗?这应该是可行的,您可以创建build.sbt,其中包含play作为依赖项。然后加载sbt控制台,它应该可以工作。检查这个:@ShankarShastri。谢谢。在maven jar中,我们在mvn中提供org.ocpsoft.common api 1.0.5.Final。如何在sbt文件中提供相同的条目。您是否可以共享build.sbt,我可以创建一个答案并将其发回。您的spark安装路径中应该有一个称为jars目录的目录。在我的Mac电脑中,它位于SPARK_HOME/libexec目录下。您能在该目录中复制所需的jar并重新启动spark shell吗?这应该管用,多谢乌鲁宾。我认为这是spark shell的短期解决方案。我可以推荐另一种方法,但我需要知道一件事;您想使用sparkshell
还是仅仅使用spark
?我建议您对Scala项目使用SBT,因为它是默认的构建工具。此外,您可以使用SBT文件执行许多操作,如创建您自己的SparkContext
,如前所述。如果您正在开发Spark应用程序,最好使用build.SBT
,其中包含Spark和Play作为依赖项,因为您可以自行配置,或者创建jar,以便在云中/其他地方重复运行。如果您只是在开发一个简单的Spark作业,请创建一个.scala
文件,并将Spark shell
指定为依赖项来运行它。非常感谢。我认为这是spark shell的短期解决方案。我可以推荐另一种方法,但我需要知道一件事;您想使用sparkshell
还是仅仅使用spark
?我建议您对Scala项目使用SBT,因为它是默认的构建工具。此外,您可以使用SBT文件执行许多操作,如创建您自己的SparkContext
,如前所述。如果您正在开发Spark应用程序,最好使用build.SBT
,其中包含Spark和Play作为依赖项,因为您可以自行配置,或者创建jar,以便在云中/其他地方重复运行。如果您只是在开发一个简单的Spark作业,请创建一个.scala
文件,并将Spark shell
指定为依赖项来运行它。