Apache spark 如何在SparkALS中隐式地使用多个核心?

Apache spark 如何在SparkALS中隐式地使用多个核心?,apache-spark,Apache Spark,我正在使用Spark ALS隐式推荐程序代码。使用多核/并行性训练模型效果良好: model = ALS.trainImplicit(ratings, rank, numIterations, lambda_, blocks=-1, alpha=alpha) 我还将Spark上下文参数配置为使用多个核心,我可以看到模型训练部分使用多个核心 但当我使用预测函数时,例如: Item = model.recommendUsers(item_id, 1000000) 这相当慢(100万用户需要70秒

我正在使用Spark ALS隐式推荐程序代码。使用多核/并行性训练模型效果良好:

model = ALS.trainImplicit(ratings, rank, numIterations, lambda_, blocks=-1, alpha=alpha)
我还将Spark上下文参数配置为使用多个核心,我可以看到模型训练部分使用多个核心

但当我使用预测函数时,例如:

Item = model.recommendUsers(item_id, 1000000)
这相当慢(100万用户需要70秒)

我找不到任何关于如何使预测和推荐函数使用多核的文档,也找不到任何关于如何使用多线程的文档。这可能吗