Apache spark 使用Spark Shell时指定Spark环境API的选项

Apache spark 使用Spark Shell时指定Spark环境API的选项,apache-spark,Apache Spark,是否有一个选项可以传递给sparkshell,用于指定运行代码的环境?换句话说,如果我使用Spark 1.3;我可以指定我希望使用Spark 1.2 API吗 例如: pyspark—api 1.2 sparkshell初始化为启动REPL,它不解析任何命令行参数。因此,不可能从命令行传递api值,您已经使用了各自版本的spark中相应的spark shell二进制文件。似乎不可能,至少我以前没有听说过scala api

是否有一个选项可以传递给sparkshell,用于指定运行代码的环境?换句话说,如果我使用Spark 1.3;我可以指定我希望使用Spark 1.2 API吗

例如:

pyspark—api 1.2


sparkshell
初始化为启动REPL,它不解析任何命令行参数。因此,不可能从命令行传递api值,您已经使用了各自版本的spark中相应的
spark shell
二进制文件。

似乎不可能,至少我以前没有听说过scala api