Ubuntu 15.10上的spark 1.6.0编译失败
我试图在我的笔记本电脑ubuntu 15.10上安装spark sbt assembly,编译后我收到一条消息,编译失败。这是我第二次这么做,第一次它工作得很好,但我不得不重新安装系统,现在我正试图再次这样做,但这次它不工作 终端输出的最后一部分充满了以[error]开头的行。接近尾声时,它说:Ubuntu 15.10上的spark 1.6.0编译失败,ubuntu,hadoop,apache-spark,ubuntu-15.10,Ubuntu,Hadoop,Apache Spark,Ubuntu 15.10,我试图在我的笔记本电脑ubuntu 15.10上安装spark sbt assembly,编译后我收到一条消息,编译失败。这是我第二次这么做,第一次它工作得很好,但我不得不重新安装系统,现在我正试图再次这样做,但这次它不工作 终端输出的最后一部分充满了以[error]开头的行。接近尾声时,它说: [error] uncaught exception during compilation: java.io.IOException [error] File name too long 当我试着跑的
[error] uncaught exception during compilation: java.io.IOException
[error] File name too long
当我试着跑的时候
bin/spark-shell
我收到消息“bin/sparkshell:line 57:/usr/local/spark/bin/spark submit:没有这样的文件或目录”
在以独立模式安装之前,我尝试在hadoop 2.7.1的基础上安装spark,但它不起作用,运行示例失败
有人能建议我应该如何查找问题吗?sbt或maven,您使用哪一种?我建议使用maven。我使用的是sbt,而不是maven。事实证明,问题在于磁盘加密,在尝试安装spark时会导致错误。。。如果加密“home”,则无法安装spark。