Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/asp.net-mvc/14.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache spark Spark:与远程系统的关联丢失akka.tcp(已解除关联)_Apache Spark_Yarn - Fatal编程技术网

Apache spark Spark:与远程系统的关联丢失akka.tcp(已解除关联)

Apache spark Spark:与远程系统的关联丢失akka.tcp(已解除关联),apache-spark,yarn,Apache Spark,Yarn,我正在将Spark 1.3.0与Hadoop/Thread一起使用,我收到一条错误消息,上面说 WARN ReliableDeliverySupervisor:与远程系统关联[akka。tcp://sparkYarnAM@virtm2:51482]已失败,地址现在已被选通 对于[5000]女士,原因是:[解除关联] 我读过这篇文章,发现将akka心跳间隔设置为100可以解决这个问题: SparkConf conf = new SparkConf().setAppName("Name"); con

我正在将Spark 1.3.0与Hadoop/Thread一起使用,我收到一条错误消息,上面说

WARN ReliableDeliverySupervisor:与远程系统关联[akka。tcp://sparkYarnAM@virtm2:51482]已失败,地址现在已被选通 对于[5000]女士,原因是:[解除关联]

我读过这篇文章,发现将akka心跳间隔设置为100可以解决这个问题:

SparkConf conf = new SparkConf().setAppName("Name");
conf.set("spark.akka.heartbeat.interval", "100");
不幸的是,我的情况并非如此。几秒钟后,我按enter键,作业失败,并将此错误作为原因

我使用以下命令提交作业:

/usr/local/spark130/bin/spark-submit 
--class de.unidue.langTecspark.TweetTag 
--master yarn-client 
--executor-memory 2g  
--driver-memory 4g 
/home/huser/sparkIt-1.0-standalone.jar
节点上正在执行的容器的日志表明应用程序主机被杀死

5 ERROR yarn.ApplicationMaster: RECEIVED SIGNAL 15: SIGTERM
我尝试运行一个最小的示例,这一个(它基本上什么都不做……只是看看它是否有相同的问题。):

publicstaticvoidmain(字符串[]args){
SparkConf conf=new SparkConf().setAppName(“最小”);
JavaSparkContext sc=新的JavaSparkContext(conf);
列表数据=数组.asList(1,2,3,4,5);
javarddistdata=sc.parallelize(数据);
sc.close();
}
我再次进入日志,应用程序管理员消除了错误。这里的任何错误都与记忆无关,但我很难追踪这个问题

我有一个小型分布式设置,4台机器用于数据/处理,1台机器用于namenode


非常感谢您的帮助

当主设备和从设备未正确启动时,可能会出现此问题。使用
/sbin/start all.sh启动主机和从机,然后提交申请

你的主人没有跑!我在客户端模式下使用纱线。如果我在没有纱线的情况下运行spark,则不会出现问题,因此我假设主/从设备没有特殊问题。
public static void main(String [] args){
        SparkConf conf = new SparkConf().setAppName("Minimal");
        JavaSparkContext sc = new JavaSparkContext(conf);
        List<Integer> data = Arrays.asList(1, 2, 3, 4, 5);
        JavaRDD<Integer> distData = sc.parallelize(data);
        sc.close();
    }