Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
sparkshell命令给出java错误_Java_Apache Spark_Hadoop - Fatal编程技术网

sparkshell命令给出java错误

sparkshell命令给出java错误,java,apache-spark,hadoop,Java,Apache Spark,Hadoop,我是新手。尝试在我的本地机器mac上进行安装,它的java版本为1.7.0_80 遵循以下步骤: 已下载apache spark,版本spark-2.3.1-bin-hadoop2.6.tgz,来自 . 卸载文件,将文件夹重命名为spak并将其移动到 /usr/本地/星火 在/usr/local/spark中,运行以下命令:bin/sparkshell 出现以下java错误: Rajeev: spark rajeevnair$ bin/spark-shell Exception in thre

我是新手。尝试在我的本地机器mac上进行安装,它的java版本为1.7.0_80

遵循以下步骤:

已下载apache spark,版本spark-2.3.1-bin-hadoop2.6.tgz,来自 . 卸载文件,将文件夹重命名为spak并将其移动到 /usr/本地/星火 在/usr/local/spark中,运行以下命令:bin/sparkshell 出现以下java错误:

Rajeev: spark rajeevnair$ bin/spark-shell

Exception in thread "main" java.lang.UnsupportedClassVersionError: org/apache/spark/launcher/Main : Unsupported major.minor version 52.0
    at java.lang.ClassLoader.defineClass1(Native Method)
    at java.lang.ClassLoader.defineClass(ClassLoader.java:800)
    at java.security.SecureClassLoader.defineClass(SecureClassLoader.java:142)
    at java.net.URLClassLoader.defineClass(URLClassLoader.java:449)
    at java.net.URLClassLoader.access$100(URLClassLoader.java:71)
    at java.net.URLClassLoader$1.run(URLClassLoader.java:361)
    at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
    at java.security.AccessController.doPrivileged(Native Method)
    at java.net.URLClassLoader.findClass(URLClassLoader.java:354)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:425)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:308)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:358)
    at sun.launcher.LauncherHelper.checkAndLoadMain(LauncherHelper.java:482)

您需要Java8以2.2.0以上的版本运行Spark。 详情请参阅:

使用Maven构建Spark需要Maven 3.3.9或更新版本以及Java 8+。请注意,对Java 7的支持从Spark 2.2.0开始就被删除了


因此,您可以选择升级Java或使用旧版本的Spark。

非常感谢。现在工作。