Can';t禁用eclipse scala的日志
我试图在scala代码中禁用spark日志。我已经尝试了我能找到的一切,但日志仍然出现 这就是我所做的: 我编辑了Can';t禁用eclipse scala的日志,eclipse,scala,logging,apache-spark,log4j,Eclipse,Scala,Logging,Apache Spark,Log4j,我试图在scala代码中禁用spark日志。我已经尝试了我能找到的一切,但日志仍然出现 这就是我所做的: 我编辑了log4j.properties文件并更改了以下行: 从log4j.rootCategory=警告,控制台 到log4j.rootCategory=错误,控制台 我还使用spark上下文将级别设置为错误或关闭: sc.setLogLevel("OFF") 或错误: sc.setLogLevel("ERROR") 我还导入了log4j.Level和log4jLogger 而且: v
log4j.properties
文件并更改了以下行:
从log4j.rootCategory=警告,控制台
到log4j.rootCategory=错误,控制台
我还使用spark上下文将级别设置为错误或关闭:
sc.setLogLevel("OFF")
或错误:
sc.setLogLevel("ERROR")
我还导入了log4j.Level
和log4jLogger
而且:
var rootLogger = Logger.getRootLogger()
rootLogger.setLevel(Level.FATAL)
最后一次尝试:
Logger.getLogger("org").setLevel(Level.OFF)
Logger.getLogger("akka").setLevel(Level.OFF)
Logger.getLogger("spark").setLevel(Level.OFF)
但我仍然在日志中获得信息和警告
有什么想法吗?我的Spark版本是2.0.0在创建SparkContext之前添加以下代码
import org.apache.log4j.Logger
import org.apache.log4j.Level
Logger.getLogger("org").setLevel(Level.OFF)
Logger.getLogger("akka").setLevel(Level.OFF)
转到工作区中的src/test/resources dir,如果文件/dir不存在,则创建该文件
在目录中粘贴以下代码:
更改此设置以设置火花日志级别
log4j.logger.org.apache.spark=WARN
沉默阿克卡远程
log4j.logger.Remoting=警告
忽略来自Jetty的低于警告级别的消息,因为它有点冗长
log4j.logger.org.eclipse.jetty=WARN
在此之后,重新启动ide并运行代码 在创建SparkContext或会话生成器之前添加以下代码
作为进口声明:
import org.apache.log4j.{Level,Logger}
在主要方法之后:
Logger.getLogger(“org”).setLevel(Level.ERROR)
它没有关闭它们。请将代码放入代码块中。