Scala 在spark shell中运行启动命令

Scala 在spark shell中运行启动命令,scala,apache-spark,Scala,Apache Spark,scalarepl的-i选项不适用于sparkshell:它会自动忽略该选项。具体而言: spark-shell -i ~/.scalarc 不加载~/.scalarc文件 是否有其他方法将启动(scala)命令加载到spark repl中?解决方法是使用:加载 :load /Users/steve/.scalarc spark shell不支持某些命令行参数,也不支持电源模式 更新从Spark 2.0开始,现在支持Spark shell-i。查看Vijay接受的答案。这可能是以后的开发,但

scala
repl的
-i
选项不适用于
sparkshell
:它会自动忽略该选项。具体而言:

spark-shell -i ~/.scalarc
不加载
~/.scalarc
文件


是否有其他方法将启动(scala)命令加载到spark repl中?

解决方法是使用:加载

:load /Users/steve/.scalarc
spark shell不支持某些命令行参数,也不支持电源模式


更新从Spark 2.0开始,现在支持
Spark shell-i
。查看Vijay接受的答案。

这可能是以后的开发,但我刚刚尝试了spark shell-I init.scala,它在完成启动后运行了我的init.scala脚本。

太好了!现在检查一下——如果它有效的话,我会奖励你的答案——它现在有效了——他们显然已经纠正了这个疏忽。