是否有Spark、hadoop和hive的兼容性映射
理解Spark和hadoop的不同版本之间的版本兼容性令人困惑。Hadoop和hive也是如此是否有Spark、hadoop和hive的兼容性映射,hadoop,apache-spark,hive,Hadoop,Apache Spark,Hive,理解Spark和hadoop的不同版本之间的版本兼容性令人困惑。Hadoop和hive也是如此 是否有任何表格可用于了解一个版本的哪个版本与另一个版本的哪个版本兼容?由@cricket\u 007共享的兼容性图表 下载页面上的预构建Spark软件包明确表示“适用于Hadoop 2.6及更高版本”,那么这里的混淆是什么呢?Hive可能也一样,但Hortonworks的“芦笋图”是他们官方支持的@谢谢你的回复。这很有帮助。我将添加您提供的图表作为我问题的答案。再次感谢。虽然这不是一个兼容性图表,但它
是否有任何表格可用于了解一个版本的哪个版本与另一个版本的哪个版本兼容?由@cricket\u 007共享的兼容性图表
下载页面上的预构建Spark软件包明确表示“适用于Hadoop 2.6及更高版本”,那么这里的混淆是什么呢?Hive可能也一样,但Hortonworks的“芦笋图”是他们官方支持的@谢谢你的回复。这很有帮助。我将添加您提供的图表作为我问题的答案。再次感谢。虽然这不是一个兼容性图表,但它只是每个版本的HDPWhat中使用的关于Spark与其他库的持续兼容性的内容。目前我正在使用Spark 2.2,无法使用Hadoop 2.8.1将一些数据从Spark保存到Azure blob存储。参考早些时候给出图表的@cricket\u 007