如何更改scala spark的级别';s登录到IDE的控制台?
我真的尝试了每一种解决方案,但没有任何效果!仍然会得到大量调试日志,因此在spark执行计算时无法打印任何内容 这是我运行的类,它生成调试日志的音调如何更改scala spark的级别';s登录到IDE的控制台?,scala,apache-spark,Scala,Apache Spark,我真的尝试了每一种解决方案,但没有任何效果!仍然会得到大量调试日志,因此在spark执行计算时无法打印任何内容 这是我运行的类,它生成调试日志的音调 spark.sparkContext.setLogLevel("ERROR") Logger.getRootLogger().setLevel(Level.ERROR) Logger.getLogger("org").setLevel(Level.ERROR) Logger.getLogger("
spark.sparkContext.setLogLevel("ERROR")
Logger.getRootLogger().setLevel(Level.ERROR)
Logger.getLogger("org").setLevel(Level.ERROR)
Logger.getLogger("akka").setLevel(Level.ERROR)
还有其他想法吗?您需要在spark上下文上设置日志级别:
sc.setLogLevel(“错误”)
我正在这样做:spark.sparkContext.setLogLevel(“错误”)
您需要在spark上下文上设置日志级别:sc.setLogLevel(“错误”)
我正在这样做:spark.sparkContext.setLogLevel(“错误”)