Apache spark 登录pyspark

Apache spark 登录pyspark,apache-spark,pyspark,Apache Spark,Pyspark,我试图在使用pyspark时创建日志文件,但收到以下错误消息: SLF4J:未能加载类“org.SLF4J.impl.StaticLoggerBinder”。 SLF4J:默认为无操作(NOP)记录器实现 SLF4J:有关更多详细信息,请参阅 我已经在我的类路径中添加了jar文件,但是我仍然得到这个错误。不管怎样,我可以解决这个问题。我甚至尝试将jar文件作为驱动程序类路径中的参数传递,但仍然得到相同的错误

我试图在使用pyspark时创建日志文件,但收到以下错误消息:

SLF4J:未能加载类“org.SLF4J.impl.StaticLoggerBinder”。 SLF4J:默认为无操作(NOP)记录器实现 SLF4J:有关更多详细信息,请参阅

我已经在我的类路径中添加了jar文件,但是我仍然得到这个错误。不管怎样,我可以解决这个问题。我甚至尝试将jar文件作为驱动程序类路径中的参数传递,但仍然得到相同的错误