Apache spark Apache spark 2.4与hadoop 3.2环境的兼容性
我们正在尝试在hadoop 3.2上运行spark2.4.x 但我们注意到,databricks只有针对spark2.4.x的hadoop2.7/2.6预构建版本 以下是databricks官方网站的下载页面链接:Apache spark Apache spark 2.4与hadoop 3.2环境的兼容性,apache-spark,hadoop3,Apache Spark,Hadoop3,我们正在尝试在hadoop 3.2上运行spark2.4.x 但我们注意到,databricks只有针对spark2.4.x的hadoop2.7/2.6预构建版本 以下是databricks官方网站的下载页面链接: 所以我们想知道,如果我们强制spark2.4在hadoop 3.2上运行,是否会有潜在的问题。我还需要支持hadoop 3.x的spark2.4
所以我们想知道,如果我们强制spark2.4在hadoop 3.2上运行,是否会有潜在的问题。我还需要支持hadoop 3.x的spark2.4