Apache spark Spark Shell-文件名、目录名或卷标语法不正确

Apache spark Spark Shell-文件名、目录名或卷标语法不正确,apache-spark,apache-spark-2.0,sparkling-water,Apache Spark,Apache Spark 2.0,Sparkling Water,使用以下参数运行spark shell.cmd时出错 “C:\SoftwareLibraries\spark\spark-2.0.1\bin\spark shell.cmd”--jars“C:\SoftwareLibraries\H2o\sparklingWater\bin\assembly\build\libs\sparkling-water-assembly\u 2.11-2.0.5-all.jar” 文件名、目录名或卷标语法不正确 有人能帮忙吗。? 非常感谢不过我没有Windows环境来测

使用以下参数运行
spark shell.cmd
时出错

“C:\SoftwareLibraries\spark\spark-2.0.1\bin\spark shell.cmd”--jars“C:\SoftwareLibraries\H2o\sparklingWater\bin\assembly\build\libs\sparkling-water-assembly\u 2.11-2.0.5-all.jar”

文件名、目录名或卷标语法不正确

有人能帮忙吗。?
非常感谢

不过我没有Windows环境来测试这一点:

您是否尝试过避开反斜杠,或者尝试用常规斜杠替换它们

e、 g:


“C:\SoftwareLibraries\spark\spark-2.0.1\bin\spark shell.cmd”--jars“C:/SoftwareLibraries/H2o/sparlingwater/bin/assembly/build/libs/sparling-water-assembly\u 2.11-2.0.5-all.jar”

我建议使用准备好的脚本启动sparlingwater,因为它们会处理jar和python文件的位置


您可以下载官方的Sparking water distribution并运行启动Sparking water shell的
/bin/Sparking shell.cmd
脚本。

当我们以逗号分隔的双引号传递多个罐子时,我们遇到了同样的问题,spark-shell.cmd抛出了一个错误的文件名、目录名或卷标语法不正确。即使spark-shell.cmd在内部调用spark-shell2.cmd,似乎也存在一些问题。切换到spark-shell2的那一刻一切都很好。

我做了,但没有结果!