Scala 为什么recommendProductsForUsers不是org.apache.spark.mllib.Recommension.MatrixFactoryModel的成员
我使用Spark和ALS Collaborative过滤mllib构建了推荐系统 我的代码片段:Scala 为什么recommendProductsForUsers不是org.apache.spark.mllib.Recommension.MatrixFactoryModel的成员,scala,apache-spark,apache-spark-mllib,matrix-factorization,Scala,Apache Spark,Apache Spark Mllib,Matrix Factorization,我使用Spark和ALS Collaborative过滤mllib构建了推荐系统 我的代码片段: bestModel.get .predict(toBePredictedBroadcasted.value) 每件事都是好的,但我需要更改代码来满足fullfilment的要求,我从scala文档中读到 我需要使用def推荐产品 但当我尝试在我的代码中: bestModel.get.recommendProductsForUsers(100) 编译时出现错误: value recommendP
bestModel.get
.predict(toBePredictedBroadcasted.value)
每件事都是好的,但我需要更改代码来满足fullfilment的要求,我从scala文档中读到
我需要使用def推荐产品
但当我尝试在我的代码中:
bestModel.get.recommendProductsForUsers(100)
编译时出现错误:
value recommendProductsForUsers is not a member of org.apache.spark.mllib.recommendation.MatrixFactorizationModel
[error] bestModel.get.recommendProductsForUsers(100)
也许有人能帮我
thx
注意:我使用Spark 1.5.0
我的进口:
import com.datastax.spark.connector._
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.SparkContext._
import java.io.File
import scala.io.Source
import org.apache.log4j.Logger
import org.apache.log4j.Level
import org.apache.spark.rdd._
import org.apache.spark.mllib.recommendation.{ALS, Rating, MatrixFactorizationModel}
import org.apache.spark.sql.SQLContext
import org.apache.spark.broadcast.Broadcast
您使用的是哪一版本的spark?我使用的是spark 1.5.0版本的bestModel是什么类型的?哪一个?您似乎正在使用spark.ml中的一个。您可以将您的导入添加到问题中吗?