Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Scala 如何在windows的spark shell中导入play framwork jar?_Scala_Apache Spark - Fatal编程技术网

Scala 如何在windows的spark shell中导入play framwork jar?

Scala 如何在windows的spark shell中导入play framwork jar?,scala,apache-spark,Scala,Apache Spark,我正在使用windows机器并安装spark和scala进行学习。对于需要处理json输入数据的spark sql scala> sc res4: org.apache.spark.SparkContext = org.apache.spark.SparkContext@7431f4b8 scala> import play.api.libs.json._ <console>:23: error: not found: value play import

我正在使用windows机器并安装spark和scala进行学习。对于需要处理json输入数据的spark sql

scala> sc
res4: org.apache.spark.SparkContext = org.apache.spark.SparkContext@7431f4b8

scala> import play.api.libs.json._
<console>:23: error: not found: value play
       import play.api.libs.json._
              ^

scala>
scala>sc
res4:org.apache.spark.SparkContext=org.apache.spark。SparkContext@7431f4b8
scala>导入play.api.libs.json_
:23:错误:未找到:值播放
导入play.api.libs.json_
^
斯卡拉>

如何在spark shell命令中导入播放api。

如果您想在使用
spark shell
时使用其他库,则需要使用
--jars
和/或
--packages
运行
spark shell
命令。例如,要在spark shell中使用play,请运行以下命令

spark-shell --packages "com.typesafe.play":"play_2.11":"2.6.19"

有关详细信息,您可以使用
spark shell-h
。我希望有帮助

如果要在使用
spark shell
时使用其他库,则需要使用
--jars
和/或
--packages
运行
spark shell
命令。例如,要在spark shell中使用play,请运行以下命令

spark-shell --packages "com.typesafe.play":"play_2.11":"2.6.19"

有关详细信息,您可以使用
spark shell-h
。我希望有帮助

您可以创建build.sbt,其中包含播放作为依赖项。然后加载sbt控制台,它应该可以工作。检查这个:@ShankarShastri。谢谢。在maven jar中,我们在mvn中提供org.ocpsoft.common api 1.0.5.Final。如何在sbt文件中提供相同的条目。您是否可以共享build.sbt,我可以创建一个答案并将其发回。您的spark安装路径中应该有一个称为jars目录的目录。在我的Mac电脑中,它位于SPARK_HOME/libexec目录下。您能在该目录中复制所需的jar并重新启动spark shell吗?这应该是可行的,您可以创建build.sbt,其中包含play作为依赖项。然后加载sbt控制台,它应该可以工作。检查这个:@ShankarShastri。谢谢。在maven jar中,我们在mvn中提供org.ocpsoft.common api 1.0.5.Final。如何在sbt文件中提供相同的条目。您是否可以共享build.sbt,我可以创建一个答案并将其发回。您的spark安装路径中应该有一个称为jars目录的目录。在我的Mac电脑中,它位于SPARK_HOME/libexec目录下。您能在该目录中复制所需的jar并重新启动spark shell吗?这应该管用,多谢乌鲁宾。我认为这是spark shell的短期解决方案。我可以推荐另一种方法,但我需要知道一件事;您想使用
sparkshell
还是仅仅使用
spark
?我建议您对Scala项目使用SBT,因为它是默认的构建工具。此外,您可以使用SBT文件执行许多操作,如创建您自己的
SparkContext
,如前所述。如果您正在开发Spark应用程序,最好使用
build.SBT
,其中包含Spark和Play作为依赖项,因为您可以自行配置,或者创建jar,以便在云中/其他地方重复运行。如果您只是在开发一个简单的Spark作业,请创建一个
.scala
文件,并将
Spark shell
指定为依赖项来运行它。非常感谢。我认为这是spark shell的短期解决方案。我可以推荐另一种方法,但我需要知道一件事;您想使用
sparkshell
还是仅仅使用
spark
?我建议您对Scala项目使用SBT,因为它是默认的构建工具。此外,您可以使用SBT文件执行许多操作,如创建您自己的
SparkContext
,如前所述。如果您正在开发Spark应用程序,最好使用
build.SBT
,其中包含Spark和Play作为依赖项,因为您可以自行配置,或者创建jar,以便在云中/其他地方重复运行。如果您只是在开发一个简单的Spark作业,请创建一个
.scala
文件,并将
Spark shell
指定为依赖项来运行它。