spark没有将log4j日志写入stderr,为什么?

a0zr77ik  于 2021-05-27  发布在  Spark
关注(0)|答案(0)|浏览(285)

我甚至提交了带有错误配置的classname的作业,以强制classnotfoundexception,但是我仍然没有在stderr上获得任何异常。

Log Type: stderr    
Log Upload Time: Fri Aug 07 13:16:07 +0000 2020    
Log Length: 465    
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/usr/hdp/3.1.6.2-2/spark2/jars/slf4j-log4j12-1.7.16.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/usr/hdp/3.1.6.2-2/hadoop/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]

我看到我有多个绑定,但在过去,即使使用多个绑定,日志也能正常工作。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题