Apache spark Spark:在本地使用本机hadoop库
我从intellij启动spark应用程序进行测试。我总是看到这样的信息:Apache spark Spark:在本地使用本机hadoop库,apache-spark,hadoop,Apache Spark,Hadoop,我从intellij启动spark应用程序进行测试。我总是看到这样的信息: WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 如果我使用这个本地库,会有什么改进吗?(我有一台MacOS) Thx.这里已经澄清了这一点:我已经看到了这个链接,但是它解释了“如何”而不是“为什么”(这是我的问题)
WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
如果我使用这个本地库,会有什么改进吗?(我有一台MacOS)
Thx.这里已经澄清了这一点:我已经看到了这个链接,但是它解释了“如何”而不是“为什么”(这是我的问题)