Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/visual-studio/8.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop 在使用spark编写拼花地板时,很多人已经具备了CreateDexception和LeaseExpiredException_Hadoop_Apache Spark_Hdfs_Parquet - Fatal编程技术网

Hadoop 在使用spark编写拼花地板时,很多人已经具备了CreateDexception和LeaseExpiredException

Hadoop 在使用spark编写拼花地板时,很多人已经具备了CreateDexception和LeaseExpiredException,hadoop,apache-spark,hdfs,parquet,Hadoop,Apache Spark,Hdfs,Parquet,我有几个并行的Spark任务做同样的事情,它们分别处理输入/输出dir,最后使用其中一列作为分区器将结果从数据帧写入parquet。投入最多的工作往往失败。一些执行器在以下异常情况下开始失败,然后一个阶段失败并开始重新计算失败的分区,如果失败的阶段数达到4(如果达到,有时不达到,并且整个作业成功完成),则整个作业被取消 阶段失败,原因如下(来自spark UI): org.apache.spark.shuffle.FetchFailedException 连接被关闭 同行 我试图在互联网上找到线

我有几个并行的Spark任务做同样的事情,它们分别处理输入/输出dir,最后使用其中一列作为分区器将结果从数据帧写入parquet。投入最多的工作往往失败。一些执行器在以下异常情况下开始失败,然后一个阶段失败并开始重新计算失败的分区,如果失败的阶段数达到4(如果达到,有时不达到,并且整个作业成功完成),则整个作业被取消

阶段失败,原因如下(来自spark UI):

  • org.apache.spark.shuffle.FetchFailedException
  • 连接被关闭 同行
  • 我试图在互联网上找到线索,似乎原因可能是投机性执行,但我没有在Spark中启用它,还有其他想法吗?原因是什么

    Spark工作代码:

    sqlContext
    .createDataFrame(finalRdd,structType)
    .write()
    .partitionBy(分区列名称)
    .拼花地板(tmpDir);
    
    遗嘱执行人的例外情况:

    16/09/14 11:04:06错误数据源。DynamicPartitionWriterContainer:中止任务。
    org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.protocol.AlreadyBeingCreatedException):未能为[Dfs659141104\u 0001\m\u 006023\u 0/partition=2/part-r-06023-482b0b4d-1174-4c76-b203-92B27B47C78CB.parquet]为[Client]创建文件[/erm/data/data/data/core/core/internal/ekp/ekp/stg/tmp/Z\u PLAN\u OPER/\u temporary/0/\u temporary/Tsu/Tsu/Tsum/Tsu\U 201609141104\U 0001\u 006023对于客户端[10.117.102.72],因为此文件已由[10.117.102.15]上的[DFSClient\u NONMAPREDUCE\u-2049022202\u 200]创建
    位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.recoverLeaseInternal(FSNamesystem.java:3152)
    org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException):无租赁/erm/data/core/internal/ekp/stg/tmp/Z_PLAN_OPER/_temporary/0/_temporary/trument_201609141105_0001_m_006489_0/partition=2/part-r-06489-482b4d-1174-4c76-b203-92B27C78CB.parquet(inode 318361396):文件不存在。持有人DFSClient_NONMAPREDUCE_-1428957718_196没有任何打开的文件。
    位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:3625)
    位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.analyzeFileState(FSNamesystem.java:3428)
    原因:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.protocol.AlreadyBeingCreatedException):未能创建文件[/erm/data/core/internal/ekp/stg/tmp/Z_PLAN\u OPER/_temporary/0/_temporary/trument\u 201609141105_0001_m_006310_0/partition=2/part-r-r-06310-482b0b4d-1174-4c76-b203-92B27B47C78CB.parquet]客户端[10.117.102.44]的[DFSClient_NONMAPREDUCE_419723425_199],因为此文件已由[10.117.102.35]上的[DFSClient_NONMAPREDUCE_596138765_198]创建
    位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.recoverLeaseInternal(FSNamesystem.java:3152)
    运行(Thread.java:745)
    原因:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException):无租赁/erm/data/core/internal/ekp/stg/tmp/Z_PLAN_OPER/_temporary/0/_temporary/try_20160914141104_0001_m_005877_0/partition=2/part-r-r-05877-482b0b4d-1174-4c76-b203-92b2b47c78cb.31823(inode 31823):文件不存在。持有人DFSClient_NONMAPREDUCE_193375828_196没有任何打开的文件。
    位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:3625)
    位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.analyzeFileState(FSNamesystem.java:3428)
    运行(Thread.java:745)
    原因:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.protocol.AlreadyBeingCreatedException):未能为拼花地板创建文件[/erm/data/core/internal/ekp/stg/tmp/Z_PLAN\u OPER/_temporary/0/_temporary/trument\u 201609141104_0001_m_005621_0/partition=2/part-r-r-05621-482b0b4d-1174-4c76-b203-92b2b47c78cb客户端[10.117.102.36]的[DFSClient_NONMAPREDUCE_498917218_197],因为[DFSClient_NONMAPREDUCE_-578682558_197]已在[10.117.102.16]上创建此文件
    位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.recoverLeaseInternal(FSNamesystem.java:3152)
    运行(Thread.java:745)
    原因:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException):无租赁/erm/data/core/internal/ekp/stg/tmp/Z_PLAN_OPER/u temporary/0/_temporary/trument_20160914141104_m_0001_m_006311;_0/partition=2/part-r-06311-482b0b4d-1174-4c76-b203-92b2b47c78cb.3189(inode 359109):文件不存在。持有人DFSClient\u NONMAPREDUCE\u60951070\u 198没有任何打开的文件。
    位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:3625)
    位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.analyzeFileState(FSNamesystem.java:3428)
    位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:3284)
    原因:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException):没有租赁/erm/data/core/internal/ekp/stg/tmp/Z_PLAN\u OPER/_temporary/0/_temporary/trument\u 201609141104_0001_m_006215_0/partition=2/part-r-06215-482b0b4d-1174-4c76-b203-92B27B47C78CB.parquet(inode 3183359393):文件不存在。持有人DFSClient\u NONMAPREDUCE\u331523575\u 197没有任何打开的文件。
    位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:3625)
    位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.analyzeFileState(FSNamesystem.java:3428)
    原因:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.protocol.AlreadyBeingCreatedException):未能为[DFSF]创建文件[/erm/data/core/internal/ekp/stg/tmp/Z_PLAN_OPER/_temporary/0/_temporary/trument_20160914141104_0001_m_006311;_0/partition=2/part-r-r-r-06311-482b0b4d-1174-4c76-b203-92b2b47c78cb