基于RabbitMQ实现的实时日志监控

来源:互联网 发布:js控制embed 编辑:程序博客网 时间:2024/05/24 05:39

写在前面:这个功能本来是在学习消息中间件时突发奇想的一个应用场景。本意是想实现一个页面级别的完整日志监控,最终能在页面快速跟踪后台日志,实现页面级别的tail -f的效果,就不用再去服务器上跟踪log日志了。

实现效果:页面可以实时跟踪平台上所有用户的操作日志。
实时日志监控效果图
实现的方式:
使用RabbitMQ的订阅发布模式,日志信息在拦截器中随时广播发布。页面打开监控就开始监听日志,停止监控就不再监听。
与页面的交互采用comet4j的形式, 这样可以避免页面一直进行ajax轮询。

前期准备:
前期准备需要搭建一个RabbitMQ服务器,然后maven工程需要引入相关工具包。再加上Comet4j的maven依赖,以及js。这些就不敷述了,度娘一大把。

关键代码:
1、拦截器中广播发布消息。关键代码:

public class AuthFilter extends HandlerInterceptorAdapter {    public boolean preHandle(HttpServletRequest request, HttpServletResponse response, Object handler) throws Exception {        ....    RabbitMQProducer.sendFanout(new SimpleDateFormat("yyyy-MM-dd hh:mm:ss").format(new Date())+":用户 访问功能:<font color='red'>"+request.getRequestURI()+"</font>");    ....    }}

2、消息发布端工具代码: 比较简单,就一直往rabbitMQ 发消息就行了。

@Repositorypublic class RabbitMQProducer {    private static Logger logger = Logger.getLogger(RabbitMQProducer.class);    private static Channel channel;    @PostConstruct    private static void init() throws Exception{        logger.info("=======================初始化RabbmqProducer================================");        if(null == channel){            ConnectionFactory factory = new ConnectionFactory();            factory.setHost(Cons.rqServerPath);            factory.setUsername(Cons.rqServerUsername);            factory.setPassword(Cons.rqServerPassword);            Connection connection = factory.newConnection();            channel = connection.createChannel();            channel.exchangeDeclare(Cons.rqExchangeName, "fanout");        }        logger.info("=======================初始化RabbmqProducer 完成================================");        CometContext cc = CometContext.getInstance();        cc.registChannel(Cons.COMET4j_CHANNEL_DALOG);        logger.info("=======================初始化CometContext 完成================================");    }    public static void sendFanout(String message){        try {            if(null == channel){                init();            }            channel.basicPublish(Cons.rqExchangeName, "", null, (message).getBytes("UTF-8"));            logger.info("发送RabbitMQ 消息  =>  "+message);        } catch (Exception e) {            logger.warn("RabbitMQ 消息发送失败 ",e);        }    }}

3、接收端的处理:
由于接受端的代码需要一直挂起。采用一个线程的方式去接受数据。然后通过comet4j组件推送到页面上进行处理。

import java.io.IOException;import org.apache.log4j.Logger;import org.comet4j.core.CometEngine;import com.common.Cons;import com.rabbitmq.client.AMQP;import com.rabbitmq.client.Channel;import com.rabbitmq.client.Connection;import com.rabbitmq.client.ConnectionFactory;import com.rabbitmq.client.Consumer;import com.rabbitmq.client.DefaultConsumer;import com.rabbitmq.client.Envelope;public class RabbitMQReceiverTask extends Thread {    private Logger logger = Logger.getLogger(this.getClass());    // comet4j    private CometEngine engine;    // RabbitMQ    private Channel channel;    public RabbitMQReceiverTask() {    }    public RabbitMQReceiverTask(CometEngine engine) {        this.engine = engine;    }    @Override    public void run() {        try {            if (null == channel) {                logger.info("初始化RabbitMQReceiver");                ConnectionFactory factory = new ConnectionFactory();                factory.setHost(Cons.rqServerPath);                factory.setUsername(Cons.rqServerUsername);                factory.setPassword(Cons.rqServerPassword);                Connection connection = factory.newConnection();                channel = connection.createChannel();                channel.exchangeDeclare(Cons.rqExchangeName, "fanout");            }            channel.exchangeDeclare(Cons.rqExchangeName, "fanout");            String queueName = channel.queueDeclare().getQueue();            channel.queueBind(queueName, Cons.rqExchangeName, "");            Consumer consumer = new DefaultConsumer(channel) {                @Override                public void handleDelivery(String consumerTag, Envelope envelope, AMQP.BasicProperties properties,                        byte[] body) throws IOException {                    String message = new String(body, "UTF-8");                    logger.info("RabbitMQReceiver 接收到消息 =》" + message);                    engine.sendToAll(Cons.COMET4j_CHANNEL_DALOG, message);                    logger.info("Comet4j 向前台推送日志消息  =》" + message);                }            };            channel.basicConsume(queueName, true, consumer);        } catch (Exception e) {            logger.warn("RabbitMQReceiverTask 组件初始化失败", e);        }    }}

controller中的方法 只需要保证同时只会有一个消息接受线程就行。

private Logger logger = Logger.getLogger(getClass());    private RabbitMQReceiverTask rqThread;    @RequestMapping(value="comet4jCommand")    public Object comet4jCommand(String cmd){        logger.info("Comet4jController.comet4jConn: cmd =>"+cmd+";");        CometEngine engine = CometContext.getInstance().getEngine();        rqThread = CometThreadContext.getThread();        if("start".equals(cmd)){//启动RQConsumer            logger.info("确认启动日志推送线程");              if(null == rqThread){                rqThread = new RabbitMQReceiverTask(engine);                //线程停起来好麻烦, 干脆线程启动起来后就不停止了, 一直往前台推送,只是页面上设置一个标志是否接收推送的消息好了。                //这个线程就设置为守护线程,直到应用停止才会停止。                rqThread.setDaemon(true);                rqThread.start();            }        }//      else{//停止RQConsumer//          logger.info("确认终止日志推送线程");  //          if(null != rqThread){//              rqThread.stop();//              rqThread=null;//          }//      }        CometThreadContext.setThread(rqThread);        JSONObject res = new JSONObject();        res.put("res", "command received");        return res;    }

页面上的处理方式:

function init(){    // 监听后台某个频道    JS.Engine.on({            start : function(cId, channelList, engine) {                console.info('连接已建立,连接ID为:' + cId);            },            stop : function(cause, cId, url, engine) {                console.info('连接已断开,连接ID为:' + cId + ',断开原因:' + cause + ',断开的连接地址:'                        + url);            },            DALog : function(message) {                $("<p>"+message+"</p>").appendTo("#logContent");                $("#logContent").scrollTop($('#logContent')[0].scrollHeight);            }        });    }    var pageload = function() {        $scope.status="off";        init();        $('.scroll_content').slimscroll({            height : '600px'        })        $scope.comet4jStart = function(){            $scope.status="on";            //发起命令,后台去启动日志推送线程,前台再连接comet4j接收推送的日志            $http.get("comet4jConn/comet4jCommand.do?cmd=start").success(function(data) {                console.info("comet4jStart =>"+data);                // 建立连接,conn 即web.xml中 CometServlet的<url-pattern>                JS.Engine.start("conn");            });        }        $scope.comet4jStop = function(){            $scope.status="off";            //后台推送线程启动了就不管他了。 只前台停止接收comet4j推送的日志。             JS.Engine.stop("主动断开连接");        }    }

实现后的总结:功能最终是实现了,再回头讨论下开始提到的实现初衷,对现有的功能进行一下总结。
一、关于日志监控:目前的阶段只能看到简单的访问情况,因为所有日志都是从拦截器中发出来的。要实现日志监控,最靠谱的当然是要跟踪log4j日志了。这马上就引入了下一个新的问题:如何将log4j与RabbitMQ进行整合?
关于这个问题,目前想到的有两个解决方案:
1>扩展log4j,写一个appender整合RabbitMQ.
2>改用kafka消息中间件。kafka 0.8.**版本中有kafka.producer.KafkaLog4jAppender 已经实现了log4j与kafka的整合。
二、网上传言,当日志的量上去了之后,kafka会比RabbitMQ更合适。因为RabbitMQ相比Kafka更可靠的优势在处理日志上就会体现不出来。
三、由于所有消息都是通过第三方的消息中间件来提供的服务。于是, 由此可以扩展,对网络内的多个应用都可以进行统一的日志监控。这样,分布式的监控平台以及调度系统的雏形就出来了。

0 0