Eclipse 如何设置SPARK\u本地\u IP地址
我在eclipse上有一个使用Maven和Scala的字数计算程序。导出jar文件并尝试在终端(Ubuntu)上运行后 我得到了一个意想不到的结果 我的道路是火花Eclipse 如何设置SPARK\u本地\u IP地址,eclipse,scala,apache-spark,ubuntu,hdfs,Eclipse,Scala,Apache Spark,Ubuntu,Hdfs,我在eclipse上有一个使用Maven和Scala的字数计算程序。导出jar文件并尝试在终端(Ubuntu)上运行后 我得到了一个意想不到的结果 我的道路是火花 home/amel/spark 我的hadoop之路是 /usr/local/hadoop 我的命令是 su hadoopusr//我输入我的密码 然后我进入这条命令 start-all.sh 然后我输入保存jar的spark文件,并运行以下命令 spark-submit --class bd.spark_app.first.w
home/amel/spark
我的hadoop之路是
/usr/local/hadoop
我的命令是
su hadoopusr//我输入我的密码
然后我进入这条命令
start-all.sh
然后我输入保存jar的spark文件,并运行以下命令
spark-submit --class bd.spark_app.first.wordcount --master yarn --
master local[2] SparkExample.jar
r
**请记住,我的HDFS中有一个名为“sampledata”的文件,我将运行单词计数程序**
这是我在eclipse上的代码(我正在使用带有scala ide的maven项目) 包bd.spark_应用程序
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.rdd.RDD.rddToOrderedRDDFunctions
object first {
def main ( args:Array[String] ) ={
val conf = new SparkConf().setMaster("local").setAppName("wordcount")
val sc = new SparkContext(conf)
val sampledata = sc.textFile("/home/hadoopusr/sampledata")
val result = sampledata.flatMap(_.split(" ")).map(words => (words,
1)).reduceByKey(_+_)
result.collect.foreach(println)
result.saveAsTextFile("outputfile")
sc.stop()
}
}
我期待这个结果
(me,4)
(you,3)
(food,2)
(cat,1)
这个命令是错误的,有两个主机一个是本地的,另一个是纱线
第二件事是,您试图执行spark submit的路径中不存在SparkExample.jar
,这就是classnot found exception的原因
请纠正这些错误。请参阅我已将jar文件移动到执行spark submit的位置,这就是出现的情况。。大多数错误已经消失,但spark ip地址仍然存在问题19/05/26 01:07:18警告Utils:您的主机名,amel-Satellite-C850-B374解析为环回地址:127.0.1.1,但我们找不到任何外部ip地址!19/05/26 01:07:18警告Utils:如果需要绑定到其他地址,请设置SPARK_LOCAL_IP
spark-submit --class bd.spark_app.first.wordcount --master yarn --
master local[2] SparkExample.jar