Java Spark shell Git Bash

Java Spark shell Git Bash,java,bash,scala,apache-spark,git-bash,Java,Bash,Scala,Apache Spark,Git Bash,我无法使sparkshell命令在gitbash上工作。我确信我的环境设置正确,就像我在命令提示符下的任何目录中运行spark shell一样,它对我来说都很好 但是,当我在bash中运行spark shell时,它会输出此值,而不是运行实际的shell: "C:\Program Files\Java\jdk1.8.0_191\bin\java" -cp "C:\spark\spark-2.4.0-bin- hadoop2.7/conf\;C:\spark\spark-2.4.0-bin-ha

我无法使sparkshell命令在gitbash上工作。我确信我的环境设置正确,就像我在命令提示符下的任何目录中运行spark shell一样,它对我来说都很好

但是,当我在bash中运行spark shell时,它会输出此值,而不是运行实际的shell:

"C:\Program Files\Java\jdk1.8.0_191\bin\java" -cp "C:\spark\spark-2.4.0-bin- 
hadoop2.7/conf\;C:\spark\spark-2.4.0-bin-hadoop2.7\jars\*" "- 
Dscala.usejavacp=true"-Xmx1g org.apache.spark.deploy.SparkSubmit --class 
org.apache.spark.repl.Main --name "Spark shell" spark-shell

在git bash中,尝试并使用:

  • 简单引号
    (而不是双引号
  • /
    而不是
    \
    C:/…/…
    /C//…

这将与Git bash使用的shell更加兼容。

然后将其作为
run=($(spark shell))&&&“${run[@]}运行“

您的意思是在shell脚本文件中运行spark吗?如果是的话,你能给我们看一下剧本吗?如果没有,你是如何运行的?不,我只是在没有脚本的情况下调用spark shell。我只是在任何目录中调用spark shell,它在命令提示符下运行,但是对于git bash,它会显示上面的输出,我正在调用
sparkshell
@Foxlooo是否有机会修改
sparkshell
脚本以测试我提出的语法?我不确定它运行的是什么脚本,我正在使用安装spark和scala的默认内置命令运行它。此外,请记住,它在命令中起作用prompt@Foxlooo好啊我并不奇怪它在CMD命令提示符下工作,而不是在bash中(在bash中引号的解释不同)