Apache spark Spark ALS-WR为所有用户提供相同的推荐项目

Apache spark Spark ALS-WR为所有用户提供相同的推荐项目,apache-spark,machine-learning,collaborative-filtering,apache-spark-mllib,data-science,Apache Spark,Machine Learning,Collaborative Filtering,Apache Spark Mllib,Data Science,我们正试图为一家拥有多种商品类型(从快速移动的杂货店到低移动的电子商品)的超市建立一个推荐系统。有些物品的购买频率较高,但有些物品只购买一次 我们有4个月的采购历史数据,来自100多个部门的25000多个客户和30000多个SKU。我们在Spark中运行ALS-WR以生成建议。令我们惊讶的是,我们收到了针对每位客户的前15条建议,非常通用,没有太多变化 我们已经尝试了多种方法,使建议多样化,如下- -计算的“评级”=标准化的购买量 -计算的“评级”=购买记录 -计算的“评级”=1(如果购买>1)

我们正试图为一家拥有多种商品类型(从快速移动的杂货店到低移动的电子商品)的超市建立一个推荐系统。有些物品的购买频率较高,但有些物品只购买一次

我们有4个月的采购历史数据,来自100多个部门的25000多个客户和30000多个SKU。我们在Spark中运行ALS-WR以生成建议。令我们惊讶的是,我们收到了针对每位客户的前15条建议,非常通用,没有太多变化

我们已经尝试了多种方法,使建议多样化,如下-
-计算的“评级”=标准化的购买量
-计算的“评级”=购买记录
-计算的“评级”=1(如果购买>1)
-我们使用了以下参数组合-lambda=0.01到300,alpha=5到50,秩=10,20,30和#of iterations=10,20
-所考虑的偏好是明确的


您认为ALS可以用于这种异构数据吗?如果是,哪些修改将使建议多样化和个性化?

您应该将其发布在或上。编程问题也是如此,它实际上不是一个问题。在数据科学中添加了额外的标记,您应该将其发布在或上。编程问题也是如此,但它实际上不是一个问题。在数据科学中也添加了额外的标记