ElasticSearch速学

来源:互联网 发布:单片机计分牌课设 编辑:程序博客网 时间:2024/06/06 06:40

我们前面简单的学习了分析器,包含了分词器、过滤器、字符过滤器等等。
这些内置的分析器很多时候并不能满足我们的需求,比如处理中文的时候。

比较流行的中文分析器组件

https://github.com/medcl/elasticsearch-analysis-ik

安装maven

1、maven官网

http://maven.apache.org/download.cgi

2、下载地址

wget http://mirrors.hust.edu.cn/apache/maven/maven-3/3.5.0/binaries/apache-maven-3.5.0-bin.tar.gz

这里写图片描述

3、解压

tar zxvf apache-maven-3.5.0-bin.tar.gz 

解压完成目录名称是apache-maven-3.5.0,该目录下还有以下文件或目录:

bin  boot  conf  lib  LICENSE  NOTICE  README.txt

这里写图片描述

4、配置

需要配置环境变量,这里对当前用户进行修改,你要修改/etc/profile也可以。

vi ~/.bash_profile#加入export M2_HOME=~/apache-maven-3.5.0 #这个目录改成你自己的目录#修改PATHPATH=$PATH:$HOME/bin:$M2_HOME/bin

这里写图片描述
保存并退出之后,执行:

source ~/.bash_profile

5、查看maven是否安装成功

mvn --version

这里写图片描述

下载IK分词器

https://github.com/medcl/elasticsearch-analysis-ik/releases
安装文档下载对应版本,这里用的版本是5.3.0。

我们下载源码(熟悉一下maven)

wget https://github.com/medcl/elasticsearch-analysis-ik/archive/v5.3.0.tar.gz --no-check-certificate#解压tar zxvf v5.3.0.tar.gz #进入目录cd elasticsearch-analysis-ik-5.3.0

这里写图片描述

mvn package -e#用maven编译项目,生成target目录,#编译、测试代码,生成测试报告,生成jar/war文件

(如果第一次,这个过程很慢,请耐心等待)

这里写图片描述

生成出来的文件会在

.../target/releases/elasticsearch-analysis-ik-5.3.0.zip

我们需要解压elasticsearch-analysis-ik-5.3.0.zip这个文件,然后把解压之后的内容全部拷贝到elasticsearch的安装目录的plugins/ik中(自己创建个ik目录)
这里写图片描述

最后 重启你的elasticsearch实例。
(注意,我们前面已经做了elasticsearch集群,我这里有2个es节点,都需要拷贝这个插件)

查看你的插件

重新启动2个ES实例之后,再启动我们的”Kibana”这个工具:

kibana-5.3.0-linux-x86_64/bin/kibana

使用ES的api查看插件:
这里写图片描述

测试一下分词
1、我们先准备几条新闻数据

POST blog/news/901{  "title":"前端开发框架vue.js开发实践总结",  "content":"如果你之前有用过angular.js或别的双向绑定的js库,那么你会有一种自来熟的感觉。当然,vue作为一个轻量的前端视图层工具,与angular相比,还是有很明显的区别的",  "tags":"vue js angulars 前端 工具"}POST blog/news/902{  "title":"React.js初学者应该知道的9件事",  "content":"我们从最基本的开始。React不是一个 MVC框架,好吧,它根本就不是一个框架。它只是一个渲染视图的库。如果你对 MVC 熟悉的话,你就会意识到 React.js只对应了V这部分,如果它插手了M或C的逻辑,你就需要考虑用其它方法来解了",  "tags":"mvc 框架 react 逻辑"}POST blog/news/903{  "title":"大风厂\"一一六事件\"的总结报告",  "content":"郑西坡得知护厂工人强烈抗议拆迁,山水集团就找来警察来维持秩序,陈岩石觉得是经济纠纷,怎么可以派警察,他赶忙给京州市警察局长赵东来打电话,赵东来长根本不知情,并且肯定说是假警察",  "tags":"大风厂 总结报告 达康书记"}POST blog/news/904{  "title":"总的来说,大风厂事件的处理结果还是让领导满意的",  "content":"侯亮平调查的好,领导很满意。此处省略一万字。",  "tags":"大风厂 领导 侯亮平"}

我们现在就有了这些数据了:
这里写图片描述

2、测试

是不是我们安装好中文分词器就可以马上起到作用了呢?
这里写图片描述
并没有什么卵用,把“技术总结”这个词分成了这样,,,,

因为在加入分词器之后,需要对字段分别设置(哪些字段需要中文分词)

修改mapping

mapping可以对索引字段进行类型描述一集搜索分析行为

#针对索引GET blog/_mapping

这里写图片描述

#针对索引和类型GET blog/news/_mapping

这里写图片描述

我们这里需要对mapping进行修改,但是很不幸的是,我们一开始就把索引建好了,数据也创建了。mapping都已经生成啦。

mapping的anlayzer设置文档:
https://www.elastic.co/guide/en/elasticsearch/reference/5.3/analyzer.html
我们试着创建一下mapping吧:

PUT /blog{  "mappings": {    "news": {      "properties": {        "title": {           "type": "text",          "analyzer": "ik_max_word"        }      }    }  }}

这里写图片描述

这个时候我们想到了备份恢复数据的方法

1、创建一个备份

PUT _snapshot/mybackup/bak2?wait_for_completion=true{  "indices": "blog"}

这里写图片描述

2、删除索引

DELETE blog

3、然后创建索引加上mapping

PUT /blog{  "mappings": {    "news": {      "properties": {        "title": {           "type": "text",          "analyzer": "ik_max_word"        }      }    }  }}

这里写图片描述

这个时候我们来看一下:
这里写图片描述

4、恢复备份的数据

我们那么多新闻数据不能不要了啊

#先要关闭索引啦POST blog/_close
##恢复备份的数据POST _snapshot/mybackup/bak2/_restore?wait_for_completion=true{  "indices": "blog"}
#打开索引POST blog/_open

5、恢复数据之后我们再来测试
这里写图片描述
什么?没有任何效果。这是因为我们之前的备份也会备份mapping信息,恢复数据的同时mapping信息也还原啦。由此我们得出,不能这么玩。

elasticdump数据导出导入

我们需要导出纯数据(不要mapping信息)
https://github.com/taskrabbit/elasticsearch-dump

使用这个工具,需要node.js.
1、安装node.js

#下载wget https://nodejs.org/dist/v6.10.2/node-v6.10.2-linux-x64.tar.xz --no-check-certificate#解压xz -d node-v6.10.2-linux-x64.tar.xztar xvf node-v6.10.2-linux-x64.tar

把解压之后的文件夹拷贝的你目录(可以重命名)

2、依然要修改环境配置

vi ~/.bash_profile

这里写图片描述

保存之后,执行命令(为了立即生效):

source ~/.bash_profile

我们查看一下node.js是否安装成功?

[admin@localhost bin]$ node --versionv6.10.2[admin@localhost bin]$ npm --version3.10.10[admin@localhost bin]$ 

可以下载elasticdump

为了避免全局安装
我们创建一个目录estools,然后我们安装到这个目录中。

cd estools/npm install elasticdump

使用elasticdump

cd estools/node_modules/.bin/

导出data:

./elasticdump \  --input=http://localhost:9200/blog \  --output=blog.json \  --type=data

这里写图片描述

然后我们接着来:

#删除索引DELETE blog
#创建PUT blog{  "mappings": {    "news": {      "properties": {        "title": {           "type": "text",          "analyzer": "ik_max_word"        }      }    }  }}

接下来,我们把blog.json导入索引里面:

./elasticdump \  --input=blog.json \  --output=http://localhost:9200/blog \  --type=data

这里写图片描述
最后我们再来测试一下分词的情况:

POST blog/_analyze{  "field": "title",  "text": "java开发技术实战"}

ok,我们发现中文分词成功
这里写图片描述

1 0
原创粉丝点击