运行在yarn上的spark job使用log4j无法记录日志问题
来源:互联网 发布:新西兰羊毛被品牌知乎 编辑:程序博客网 时间:2024/05/22 15:04
如题,弄了蛮久。主要Maven项目依赖了spark core,spark streaming等,这些里面用了slf4j记录日志;估计会和项目中的log4j起冲突,导致记录日志不成功。
换成slf4j就OK了。
pom.xml如下:
<dependency> <groupId>org.slf4j</groupId> <artifactId>slf4j-api</artifactId> <version>1.7.12</version> </dependency>
log4j.xml如下:
<?xml version="1.0" encoding="UTF-8"?><!DOCTYPE log4j:configuration SYSTEM "log4j.dtd"><log4j:configuration xmlns:log4j='http://jakarta.apache.org/log4j/' > <appender name="FILE" class="org.apache.log4j.DailyRollingFileAppender"> <param name="file" value="/xxpath/xx.log" /> <param name="threshold" value="info"/> <param name="DatePattern" value="'.'yyyy-MM-dd"/> <param name="append" value="true" /> <layout class="org.apache.log4j.PatternLayout"> <param name="ConversionPattern" value="%d [%t] %-5p %c(%L) - %m%n"/> </layout> </appender> <root> <priority value ="info"/> <appender-ref ref="FILE"/> </root></log4j:configuration>
0 0
- 运行在yarn上的spark job使用log4j无法记录日志问题
- 如何使用yarn界面查看spark job运行的情况
- 在 YARN 上运行 Spark
- spark部署:在YARN上运行Spark
- 在基于Yarn的集群上运行Spark程序
- Spark在Yarn上运行Wordcount程序
- 在Yarn上运行Apache Zeppelin & Spark
- 在Yarn上运行spark-shell和spark-sql命令行
- 在Yarn上运行spark-shell和spark-sql命令行
- spark安装:在hadoop YARN上运行spark-shell
- 在Eclipse上运行Spark(Standalone,Yarn-Client)
- 日志记录---Log4j的使用
- spark在yarn上面的运行模型:yarn-cluster和yarn-client两种运行模式:
- 第1章对运行在YARN上的Spark进行性能调优
- 用oozie命令行的方式在yarn上运行spark任务
- MapReduce在YARN上的运行流程
- 在tomcat6中使用log4j记录日志
- SQLServer JOB无法运行的问题。
- python中的signal.set_wakeup_fd的理解
- java面向对象编程的4个特征以及重写重载的区别
- 获取路径
- 一步一步走进Linux HOOK API(五)
- css定位
- 运行在yarn上的spark job使用log4j无法记录日志问题
- IOS_study day 05
- QEMU虚拟机关键源代码学习
- ubuntu nfs 开发板
- 关于学习jackson
- JQuery去掉字符串两边的空格
- IDLDrawWidaget Activex
- 一步一步走进Linux HOOK API(六)
- 作者的独白白