搭建ELK(ElasticSearch+Logstash+Kibana)日志分析系统(十一) kinaba demo

来源:互联网 发布:青年网络公开课 2017 编辑:程序博客网 时间:2024/06/05 19:12

摘要:
现在我们已经将logstash和elasticsearch都集成起来了,在上一节的基础上,详见搭建ELK(ElasticSearch+Logstash+Kibana)日志分析系统(十) elasticsearch集群部署,我们直接加上kibana就可以出效果了。

首先我们先根据上一节,部署好logstash和elasticsearch


1、首先,我们下载kibana 5.5.1 点击下载,我下载的是64位GZ压缩包


2、把kibana压缩包放到103和78任一个服务器下,解压kibana,然后修改kibana文件夹下/config/目录下的kibana.yml文件,增加下面两行,然后保存。

server.host: "10.45.32.103"elasticsearch.url: "http://10.45.32.103:9200"


3、在kibana文件夹下运行以下命令:

./bin/kibana

运行成功之后,状态变为green,如下图


4、在windows中浏览器中输入刚刚填写的server.host(也即是kibana所在服务器的ip),端口为5601(默认),

http://10.45.32.103:5601

如下图:


5、这个界面就是说还没有任何一个索引,我们也没有设置索引,所以默认索引是,并且默认以@timestamp为过滤器,这里我们直接点击create创建,创建成功之后,点击左上角的Discover


6、这时是没有数据的,然后我在logstash的终端里输入一句nihao,刷新kibana界面,就可以看到一条数据了,如下图:


7、点击上图圈住的小三角,可以展开查看详细内容,如下图:

这里记录了发送这个消息的时间戳、版本、索引、主机、内容等等。
kibana默认是以logstash+时间建立索引的,所以刚刚我们直接选择了默认创建索引。
在实际生产中,我们在logstash的filter里根据需求增删改字段名称及内容,这个用我们前面介绍过的logstash插件就可以实现!


搞定!


阅读全文
0 0
原创粉丝点击