项目日志记录优化(一)

来源:互联网 发布:linux ant build.xml 编辑:程序博客网 时间:2024/06/05 02:12

今天做了抽时间把项目的日志记录简单的做了一下调整,大致思路就是将主要业务日志在service层记录
dao层做数据库存储 。
对于service层的日志记录,采用了log4j分包记录的方式 直接将service层的日志记录单独记录至一个独立的文件中
由于项目使用druid做jdbc驱动 所以dao日志记录这块采用了druid的日志,仍然单独记录至一个独立的文件中
这样一个简单的分层日志记录就做好了,我们只要将service层的日志记录清楚,相信也可以处理大部分程序问题了。
贴下log4j配置文件代码

###set log levelslog4j.rootLogger =info,stdout,Elog4j.logger.com.yunji.ebms.services = stdout,A1#druid sqllog4j.logger.druid.sql=debug,stdout,A2log4j.logger.druid.sql.DataSource=warn,stdout,A2log4j.logger.druid.sql.Connection=warn,stdout,A2log4j.logger.druid.sql.Statement=debug,stdout,A2log4j.logger.druid.sql.ResultSet=debug,stdout,A2log4j.appender.stdout = org.apache.log4j.ConsoleAppenderlog4j.appender.stdout.Target = System.outlog4j.appender.stdout.layout = org.apache.log4j.PatternLayoutlog4j.appender.stdout.layout.ConversionPattern =  %d{ABSOLUTE} %5p %c{1}:%L - %m%nlog4j.logger.org.quartz=INFOlog4j.appender.E= org.apache.log4j.DailyRollingFileAppenderlog4j.appender.E.File =/logs/ebms.loglog4j.appender.E.DatePattern=yyyy-MM-dd'.log'log4j.appender.E.Threshold =INFOlog4j.appender.E.layout = org.apache.log4j.PatternLayoutlog4j.appender.E.layout.ConversionPattern = %-d{yyyy-MM-dd HH:mm:ss}[%c] [%t:%r] - [%p]  %m%nlog4j.appender.A1=org.apache.log4j.DailyRollingFileAppenderlog4j.appender.A1.File =/logs/ebmsService.loglog4j.appender.A1.DatePattern=yyyy-MM-dd'.log'log4j.appender.A1.Threshold =INFOlog4j.appender.A1.layout = org.apache.log4j.PatternLayoutlog4j.appender.A1.layout.ConversionPattern = %-d{yyyy-MM-dd HH:mm:ss}[%c] [%t:%r] - [%p]  %m%nlog4j.appender.A2=org.apache.log4j.DailyRollingFileAppenderlog4j.appender.A2.File =/logs/druid.loglog4j.appender.A2.DatePattern=yyyy-MM-dd'.log'log4j.appender.A2.Threshold =debuglog4j.appender.A2.layout = org.apache.log4j.PatternLayoutlog4j.appender.A2.layout.ConversionPattern = %-d{yyyy-MM-dd HH:mm:ss}[%c] [%t:%r] - [%p]  %m%n

针对druid的日志记录,可以这样配置:

<bean id="stat-filter" class="com.alibaba.druid.filter.stat.StatFilter">    <property name="slowSqlMillis" value="10000"/>    <property name="logSlowSql" value="true"/>    <property name="mergeSql" value="true"/></bean><!--只做格式化的sql语句和返回值输出--><bean id="log-filter" class="com.alibaba.druid.filter.logging.Log4jFilter">    <property name="statementLogEnabled" value="false"/>    <property name="statementCloseAfterLogEnabled" value="false"/>    <property name="statementCreateAfterLogEnabled" value="false"/>    <property name="statementExecuteAfterLogEnabled" value="false"/>    <property name="statementExecuteBatchAfterLogEnabled" value="false"/>    <property name="statementExecuteQueryAfterLogEnabled" value="false"/>    <property name="statementExecuteUpdateAfterLogEnabled" value="false"/>    <property name="statementLogErrorEnabled" value="true"/>    <property name="statementExecutableSqlLogEnable" value="true"/>    <property name="resultSetLogEnabled" value="true"/></bean><bean id="dataSource" destroy-method="close" init-method="init"      class="com.alibaba.druid.pool.DruidDataSource">    <property name="url" value="${jdbc.url}"></property>    <property name="username" value="${jdbc.username}"></property>    <property name="password" value="${jdbc.password}"></property>    <property name="initialSize" value="1"></property>    <property name="maxActive" value="20"></property>    <!-- 配置获取连接等待超时的时间 -->    <property name="maxWait" value="60000"/>    <!-- 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒 -->    <property name="timeBetweenEvictionRunsMillis" value="60000"/>    <!-- 配置一个连接在池中最小生存的时间,单位是毫秒 -->    <property name="minEvictableIdleTimeMillis" value="300000"/>    <property name="validationQuery" value="SELECT 'x'"/>    <property name="testWhileIdle" value="true"/>    <property name="testOnBorrow" value="false"/>    <property name="testOnReturn" value="false"/>    <!-- 打开PSCache,并且指定每个连接上PSCache的大小 -->    <property name="poolPreparedStatements" value="false"/>    <property name="maxPoolPreparedStatementPerConnectionSize" value="20"/>    <property name="proxyFilters">        <list>            <ref bean="stat-filter"/>            <ref bean="log-filter"/>        </list>    </property></bean>

这样一个简单的分层日志记录就做好了