Hadoop 在使用spark编写拼花地板时,很多人已经具备了CreateDexception和LeaseExpiredException
我有几个并行的Spark任务做同样的事情,它们分别处理输入/输出dir,最后使用其中一列作为分区器将结果从数据帧写入parquet。投入最多的工作往往失败。一些执行器在以下异常情况下开始失败,然后一个阶段失败并开始重新计算失败的分区,如果失败的阶段数达到4(如果达到,有时不达到,并且整个作业成功完成),则整个作业被取消 阶段失败,原因如下(来自spark UI):Hadoop 在使用spark编写拼花地板时,很多人已经具备了CreateDexception和LeaseExpiredException,hadoop,apache-spark,hdfs,parquet,Hadoop,Apache Spark,Hdfs,Parquet,我有几个并行的Spark任务做同样的事情,它们分别处理输入/输出dir,最后使用其中一列作为分区器将结果从数据帧写入parquet。投入最多的工作往往失败。一些执行器在以下异常情况下开始失败,然后一个阶段失败并开始重新计算失败的分区,如果失败的阶段数达到4(如果达到,有时不达到,并且整个作业成功完成),则整个作业被取消 阶段失败,原因如下(来自spark UI): org.apache.spark.shuffle.FetchFailedException 连接被关闭 同行 我试图在互联网上找到线
sqlContext
.createDataFrame(finalRdd,structType)
.write()
.partitionBy(分区列名称)
.拼花地板(tmpDir);
遗嘱执行人的例外情况:
16/09/14 11:04:06错误数据源。DynamicPartitionWriterContainer:中止任务。
org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.protocol.AlreadyBeingCreatedException):未能为[Dfs659141104\u 0001\m\u 006023\u 0/partition=2/part-r-06023-482b0b4d-1174-4c76-b203-92B27B47C78CB.parquet]为[Client]创建文件[/erm/data/data/data/core/core/internal/ekp/ekp/stg/tmp/Z\u PLAN\u OPER/\u temporary/0/\u temporary/Tsu/Tsu/Tsum/Tsu\U 201609141104\U 0001\u 006023对于客户端[10.117.102.72],因为此文件已由[10.117.102.15]上的[DFSClient\u NONMAPREDUCE\u-2049022202\u 200]创建
位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.recoverLeaseInternal(FSNamesystem.java:3152)
org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException):无租赁/erm/data/core/internal/ekp/stg/tmp/Z_PLAN_OPER/_temporary/0/_temporary/trument_201609141105_0001_m_006489_0/partition=2/part-r-06489-482b4d-1174-4c76-b203-92B27C78CB.parquet(inode 318361396):文件不存在。持有人DFSClient_NONMAPREDUCE_-1428957718_196没有任何打开的文件。
位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:3625)
位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.analyzeFileState(FSNamesystem.java:3428)
原因:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.protocol.AlreadyBeingCreatedException):未能创建文件[/erm/data/core/internal/ekp/stg/tmp/Z_PLAN\u OPER/_temporary/0/_temporary/trument\u 201609141105_0001_m_006310_0/partition=2/part-r-r-06310-482b0b4d-1174-4c76-b203-92B27B47C78CB.parquet]客户端[10.117.102.44]的[DFSClient_NONMAPREDUCE_419723425_199],因为此文件已由[10.117.102.35]上的[DFSClient_NONMAPREDUCE_596138765_198]创建
位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.recoverLeaseInternal(FSNamesystem.java:3152)
运行(Thread.java:745)
原因:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException):无租赁/erm/data/core/internal/ekp/stg/tmp/Z_PLAN_OPER/_temporary/0/_temporary/try_20160914141104_0001_m_005877_0/partition=2/part-r-r-05877-482b0b4d-1174-4c76-b203-92b2b47c78cb.31823(inode 31823):文件不存在。持有人DFSClient_NONMAPREDUCE_193375828_196没有任何打开的文件。
位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:3625)
位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.analyzeFileState(FSNamesystem.java:3428)
运行(Thread.java:745)
原因:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.protocol.AlreadyBeingCreatedException):未能为拼花地板创建文件[/erm/data/core/internal/ekp/stg/tmp/Z_PLAN\u OPER/_temporary/0/_temporary/trument\u 201609141104_0001_m_005621_0/partition=2/part-r-r-05621-482b0b4d-1174-4c76-b203-92b2b47c78cb客户端[10.117.102.36]的[DFSClient_NONMAPREDUCE_498917218_197],因为[DFSClient_NONMAPREDUCE_-578682558_197]已在[10.117.102.16]上创建此文件
位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.recoverLeaseInternal(FSNamesystem.java:3152)
运行(Thread.java:745)
原因:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException):无租赁/erm/data/core/internal/ekp/stg/tmp/Z_PLAN_OPER/u temporary/0/_temporary/trument_20160914141104_m_0001_m_006311;_0/partition=2/part-r-06311-482b0b4d-1174-4c76-b203-92b2b47c78cb.3189(inode 359109):文件不存在。持有人DFSClient\u NONMAPREDUCE\u60951070\u 198没有任何打开的文件。
位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:3625)
位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.analyzeFileState(FSNamesystem.java:3428)
位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:3284)
原因:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException):没有租赁/erm/data/core/internal/ekp/stg/tmp/Z_PLAN\u OPER/_temporary/0/_temporary/trument\u 201609141104_0001_m_006215_0/partition=2/part-r-06215-482b0b4d-1174-4c76-b203-92B27B47C78CB.parquet(inode 3183359393):文件不存在。持有人DFSClient\u NONMAPREDUCE\u331523575\u 197没有任何打开的文件。
位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:3625)
位于org.apache.hadoop.hdfs.server.namenode.FSNamesystem.analyzeFileState(FSNamesystem.java:3428)
原因:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.protocol.AlreadyBeingCreatedException):未能为[DFSF]创建文件[/erm/data/core/internal/ekp/stg/tmp/Z_PLAN_OPER/_temporary/0/_temporary/trument_20160914141104_0001_m_006311;_0/partition=2/part-r-r-r-06311-482b0b4d-1174-4c76-b203-92b2b47c78cb