Eclipse 如何设置SPARK\u本地\u IP地址

Eclipse 如何设置SPARK\u本地\u IP地址,eclipse,scala,apache-spark,ubuntu,hdfs,Eclipse,Scala,Apache Spark,Ubuntu,Hdfs,我在eclipse上有一个使用Maven和Scala的字数计算程序。导出jar文件并尝试在终端(Ubuntu)上运行后 我得到了一个意想不到的结果 我的道路是火花 home/amel/spark 我的hadoop之路是 /usr/local/hadoop 我的命令是 su hadoopusr//我输入我的密码 然后我进入这条命令 start-all.sh 然后我输入保存jar的spark文件,并运行以下命令 spark-submit --class bd.spark_app.first.w

我在eclipse上有一个使用Maven和Scala的字数计算程序。导出jar文件并尝试在终端(Ubuntu)上运行后 我得到了一个意想不到的结果

我的道路是火花

home/amel/spark
我的hadoop之路是

/usr/local/hadoop
我的命令是 su hadoopusr//我输入我的密码 然后我进入这条命令 start-all.sh 然后我输入保存jar的spark文件,并运行以下命令

 spark-submit --class bd.spark_app.first.wordcount --master yarn -- 
    master local[2] SparkExample.jar
r

**请记住,我的HDFS中有一个名为“sampledata”的文件,我将运行单词计数程序**
这是我在eclipse上的代码(我正在使用带有scala ide的maven项目) 包bd.spark_应用程序

 import org.apache.spark.SparkConf
    import org.apache.spark.SparkContext
    import org.apache.spark.SparkContext._
    import org.apache.spark.rdd.RDD.rddToOrderedRDDFunctions
    object first {
    def main ( args:Array[String] ) ={

    val conf = new SparkConf().setMaster("local").setAppName("wordcount")

    val sc = new SparkContext(conf)

    val sampledata = sc.textFile("/home/hadoopusr/sampledata")

    val result = sampledata.flatMap(_.split(" ")).map(words => (words, 
    1)).reduceByKey(_+_)
    result.collect.foreach(println)

    result.saveAsTextFile("outputfile")

    sc.stop()
    }
    }

我期待这个结果

(me,4)
(you,3)
(food,2)
(cat,1)
这个命令是错误的,有两个主机一个是本地的,另一个是纱线

第二件事是,您试图执行spark submit的路径中不存在
SparkExample.jar
,这就是classnot found exception的原因


请纠正这些错误。请参阅

我已将jar文件移动到执行spark submit的位置,这就是出现的情况。。大多数错误已经消失,但spark ip地址仍然存在问题19/05/26 01:07:18警告Utils:您的主机名,amel-Satellite-C850-B374解析为环回地址:127.0.1.1,但我们找不到任何外部ip地址!19/05/26 01:07:18警告Utils:如果需要绑定到其他地址,请设置SPARK_LOCAL_IP
spark-submit --class bd.spark_app.first.wordcount --master yarn -- 
    master local[2] SparkExample.jar