Scala spark ml库是否适合逐个分类实例?
SparkScala spark ml库是否适合逐个分类实例?,scala,apache-spark,machine-learning,classification,apache-spark-mllib,Scala,Apache Spark,Machine Learning,Classification,Apache Spark Mllib,Sparkml库自豪地展示了它的功能。我认为它适合我的用例: 在bigdata世界:在许多标记的数据点上进行训练,通过调整参数等进行聪明的模型选择,并将最佳模型保存到磁盘 在bigdata world之外:从磁盘加载模型并运行一个Web服务(或其他东西),该服务使用该模型来标记未标记的数据点 查看稍旧的mllib。它似乎理解了我的用例,有一个函数predict(testData:Vector):Double,它似乎不需要运行spark上下文 但后来发现,最近推出的(推荐的)ml模型没有转换单个标
ml
库自豪地展示了它的功能。我认为它适合我的用例:
mllib
。它似乎理解了我的用例,有一个函数predict(testData:Vector):Double
,它似乎不需要运行spark上下文
但后来发现,最近推出的(推荐的)ml
模型没有转换单个标签的transform()
函数。所有函数都需要对需要spark上下文的内容进行RDD
。我不希望我的web服务器必须在spark上下文中运行
关于spark和机器学习,我必须知道什么?我想要的功能还没有实现,或者像这样使用spark的机器库来逐个分类数据点是不可行的