运行在yarn上的spark job使用log4j无法记录日志问题

来源:互联网 发布:新西兰羊毛被品牌知乎 编辑:程序博客网 时间:2024/05/22 15:04

如题,弄了蛮久。主要Maven项目依赖了spark core,spark streaming等,这些里面用了slf4j记录日志;估计会和项目中的log4j起冲突,导致记录日志不成功。

换成slf4j就OK了。

pom.xml如下:

<dependency>      <groupId>org.slf4j</groupId>      <artifactId>slf4j-api</artifactId>      <version>1.7.12</version>    </dependency>

log4j.xml如下:

<?xml version="1.0" encoding="UTF-8"?><!DOCTYPE log4j:configuration SYSTEM "log4j.dtd"><log4j:configuration xmlns:log4j='http://jakarta.apache.org/log4j/' >    <appender name="FILE" class="org.apache.log4j.DailyRollingFileAppender">        <param name="file" value="/xxpath/xx.log" />        <param name="threshold" value="info"/>        <param name="DatePattern" value="'.'yyyy-MM-dd"/>        <param name="append" value="true" />        <layout class="org.apache.log4j.PatternLayout">            <param name="ConversionPattern" value="%d [%t] %-5p %c(%L) - %m%n"/>        </layout>    </appender>    <root>        <priority value ="info"/>        <appender-ref ref="FILE"/>    </root></log4j:configuration>


0 0