Apache spark Spark捐款的认可地点?

Apache spark Spark捐款的认可地点?,apache-spark,Apache Spark,是否有Spark社区(/DataBricks/AmpLab)认可的地点供认可的(/featured?)Spark贡献?或者类似于CRAN/CPAN的火花 如果不是的话,你会在哪里寻找spark贡献——或者只是在github.com上搜索spark相关的项目(最终会找到许多悬而未决/死气沉沉的项目) 一个特别感兴趣的领域是机器学习算法。mllib/graphx故意保持小型和精简,以保持较小的代码库 然而,应该有一种方法允许在spark分发之外扩展spark的可用ML库。也许我们最终不会像R那样拥有

是否有Spark社区(/DataBricks/AmpLab)认可的地点供认可的(/featured?)Spark贡献?或者类似于CRAN/CPAN的火花

如果不是的话,你会在哪里寻找spark贡献——或者只是在github.com上搜索spark相关的项目(最终会找到许多悬而未决/死气沉沉的项目)

一个特别感兴趣的领域是机器学习算法。mllib/graphx故意保持小型和精简,以保持较小的代码库

然而,应该有一种方法允许在spark分发之外扩展spark的可用ML库。也许我们最终不会像R那样拥有4000个库,但是“几十个”或者可能只有几百个?似乎很合理。

有。它是从(图书馆)链接的→ 外部包装索引)