Java 在没有Spark控制台的情况下使用Apache Spark MLib库

Java 在没有Spark控制台的情况下使用Apache Spark MLib库,java,python,scala,machine-learning,apache-spark,Java,Python,Scala,Machine Learning,Apache Spark,我在windows7上安装了apachespark,并成功地运行了Scala和Python控制台 我的问题是,如果只是想直接从Scala、Java或Python安装中使用Mlib(机器学习库),而不使用Spark控制台,那么是否有必要使用控制台 有没有一种简单的方法可以做到这一点,我不想这么做的主要原因是什么?当然,您不必使用console。您可以在代码中创建火花上下文: val conf = new SparkConf().setMaster("local[4]").setAppName("S

我在
windows7
上安装了
apachespark
,并成功地运行了
Scala
Python
控制台

我的问题是,如果只是想直接从Scala、Java或Python安装中使用
Mlib
(机器学习库),而不使用Spark控制台,那么是否有必要使用控制台


有没有一种简单的方法可以做到这一点,我不想这么做的主要原因是什么?

当然,您不必使用console。您可以在代码中创建火花上下文

val conf = new SparkConf().setMaster("local[4]").setAppName("Spark Pi")
val spark = new SparkContext(conf)
然后创建RDD

val data = spark.textFile("data/mllib/kmeans_data.txt")

并在其上运行Mlib算法

也许这会对你有所帮助:这是一个糟糕的链接。。实际上,一行中有两个URL。。我两个都查过了,看不出有什么联系