Apache spark 这个日志文件在哪里?
在Spark/Thread上运行分布式应用程序时,我遇到以下错误,导致执行器死亡,并最终导致整个应用程序死亡:Apache spark 这个日志文件在哪里?,apache-spark,logging,jvm,segmentation-fault,yarn,Apache Spark,Logging,Jvm,Segmentation Fault,Yarn,在Spark/Thread上运行分布式应用程序时,我遇到以下错误,导致执行器死亡,并最终导致整个应用程序死亡: # # A fatal error has been detected by the Java Runtime Environment: # # SIGSEGV (0xb) at pc=0x00007f4f85ab41b1, pid=3309, tid=0x00007f4f90a4e700 # # JRE version: Java(TM) SE Runtime Environmen
#
# A fatal error has been detected by the Java Runtime Environment:
#
# SIGSEGV (0xb) at pc=0x00007f4f85ab41b1, pid=3309, tid=0x00007f4f90a4e700
#
# JRE version: Java(TM) SE Runtime Environment (8.0_112-b15) (build 1.8.0_112-b15)
# Java VM: Java HotSpot(TM) 64-Bit Server VM (25.112-b15 mixed mode linux-amd64 compressed oops)
# Problematic frame:
# C [libSalience6.so+0x7631b1] lxaArrayTrie::Get(std::string const&) const+0x71
#
# Core dump written. Default location: /data/hadoop/yarn/local/usercache/koverse/appcache/application_1537930191769_0049/container_e08_1537930191769_0049_01_000016/core or core.3309
#
# An error report file with more information is saved as:
# /data/hadoop/yarn/local/usercache/koverse/appcache/application_1537930191769_0049/container_e08_1537930191769_0049_01_000016/hs_err_pid3309.log
#
# If you would like to submit a bug report, please visit:
# http://bugreport.java.com/bugreport/crash.jsp
# The crash happened outside the Java Virtual Machine in native code.
# See problematic frame for where to report the bug.
#
libSalience6.so中存在分段错误。到目前为止还不错
但核心转储文件或日志文件都不是他们所说的位置
此错误发生在群集的slv004上,因此纱线应用程序目录
/data/hadoop/yarn/local/usercache/koverse/appcache/application_1537930191769_0049
存在于该节点上。但是容器目录不存在,并且find
检测不到日志文件
知道这个日志文件可能在哪里吗?试试这个
纱线日志-applicationId application\u 1537930191769\u 0049
您可能已启用日志聚合。如果是这种情况,日志文件将以TFile格式保存在HDFS中
您可以使用
应用程序历史记录服务器
检查这些日志。默认情况下,此web应用程序可在端口8188
上访问。根据定义,纱线容器是不稳定的——为作业下载或由作业创建的本地文件在执行终止时立即被禁用。只有纱线日志文件会保留一段时间(如果启用了日志聚合,则会立即移动到HDFS)。