Apache spark Spark不从netlib加载ARPACK或BLAS
我正在为我的数据计算SVD。但每当我使用Apache spark Spark不从netlib加载ARPACK或BLAS,apache-spark,apache-spark-mllib,apache-spark-ml,Apache Spark,Apache Spark Mllib,Apache Spark Ml,我正在为我的数据计算SVD。但每当我使用Spark submit提交Spark应用程序时,日志文件都会说明: WARN ARPACK/BLAS: Failed to load implementation from: com.github.fommil.netlib.NativeSystemARPACK/BLAS 我使用with-Pnetlib lgpl标志构建了Spark,并且在创建jar文件时在我的sbt文件中包含了netlib依赖项: libraryDependencies ++= Se
Spark submit
提交Spark应用程序时,日志文件都会说明:
WARN ARPACK/BLAS: Failed to load implementation from: com.github.fommil.netlib.NativeSystemARPACK/BLAS
我使用with-Pnetlib lgpl
标志构建了Spark,并且在创建jar文件时在我的sbt文件中包含了netlib依赖项:
libraryDependencies ++= Seq(
"org.apache.spark" % "spark-core_2.10" % "1.5.0" % "provided",
"org.apache.spark" % "spark-mllib_2.10" % "1.3.0",
"com.github.fommil.netlib" % "all" % "1.1.2" pomOnly()
)
GCC和Gfortran版本是GCC版本4.8.0(GCC)
。我还安装了BLAS、LAPACK和ATLAS,并遵循netlib网站上的说明:
当我作为导入com.github.fommil.netlib.导入时,在spark shell
中,没有给出未导入的指示
我已经试着调试这个问题有一段时间了,我已经没有主意了。有人能帮我解决这个问题 这是一个已知的痛点 我已经成功地按照说明@使用Intel MKL在Spark 1.4.x/1.5.x中运行了这个可怕的东西 我认为大概有一个地方,你必须调整这些指令,以链接到ATALAS,但这应该是可行的