Apache spark Spark中的卷积神经网络

Apache spark Spark中的卷积神经网络,apache-spark,apache-spark-mllib,conv-neural-network,apache-spark-ml,Apache Spark,Apache Spark Mllib,Conv Neural Network,Apache Spark Ml,我试图在Spark上实现一个卷积神经网络算法,在继续之前我想问两个问题 我需要实现我的代码,使其与Spark高度集成,并遵循Spark中机器学习算法的原理。我发现火花ML是机器学习代码的基础,它有一个特定的基础,所有编写的算法都在后面。此外,实现的算法正在将其繁重的数学运算转移到第三方库(如BLAS)中,以便快速进行计算 现在我想问: 1) ML是正确的起点吗?通过遵循ML结构,我的代码是否能够与spark ML生态系统的其余部分高度集成 2) 关于ML代码的底部,我说得对吗?它们将处理过程卸载

我试图在Spark上实现一个卷积神经网络算法,在继续之前我想问两个问题

我需要实现我的代码,使其与Spark高度集成,并遵循Spark中机器学习算法的原理。我发现火花ML是机器学习代码的基础,它有一个特定的基础,所有编写的算法都在后面。此外,实现的算法正在将其繁重的数学运算转移到第三方库(如BLAS)中,以便快速进行计算

现在我想问:

1) ML是正确的起点吗?通过遵循ML结构,我的代码是否能够与spark ML生态系统的其余部分高度集成

2) 关于ML代码的底部,我说得对吗?它们将处理过程卸载到另一个数学库中?这是否意味着我可以决定改变该层,以定制的方式进行繁重的处理


非常感谢您的建议。

您有解决方案吗?您有解决方案吗?