ElasticSearch2.2.1之IK分词器的安装
来源:互联网 发布:java 停止线程 编辑:程序博客网 时间:2024/04/30 08:17
安装
- 首先到github ik上下载版本为1.8.1的源码,可以直接下载zip文件,也可以通过git下载。
- 解压文件
elasticsearch-analyze-ik-1.8.1.zip
,在下载目录执行unzip elasticsearch-analyze-ik-1.8.1.zip -d ik
- 进到ik目录下
cd ik
- 用maven进行编译打包,需要装好maven,执行
mvn package
- 打包完后在target/release目录下,出现
elasticsearch-analysis-ik-1.8.1.zip
- 将该压缩文件解压并复制到Elasticsearch每个节点的
ES_HOME/plugins/lk
目录下 - 重启每个节点
注: 如果安装其他版本,请查看https://github.com/medcl/elasticsearch-analysis-ik,在分支那里选择对应的版本下载。
测试
创建索引
curl -XPUT http://localhost:9200/index
配置映射
curl -XPOST http://host:9200/iktest/fulltext/_mapping -d'{ "fulltext": { "_all": { "analyzer": "ik_max_word", "search_analyzer": "ik_max_word", "term_vector": "no", "store": "false" }, "properties": { "content": { "type": "string", "store": "no", "term_vector": "with_positions_offsets", "analyzer": "ik_max_word", "search_analyzer": "ik_max_word", "include_in_all": "true", "boost": 8 } } }}'
ik_max_word: 会将文本做最细粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌”,会穷尽各种可能的组合;
ik_smart: 会做最粗粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,国歌”。
索引文档
curl -XPOST http://host:9200/iktest/fulltext/1 -d'{"content":"美国留给伊拉克的是个烂摊子吗"}'
curl -XPOST http://host:9200/iktest/fulltext/2 -d'{"content":"公安部:各地校车将享最高路权"}'
curl -XPOST http://host:9200/iktest/fulltext/3 -d'{"content":"中韩渔警冲突调查:韩警平均每天扣1艘中国渔船"}
curl -XPOST http://host:9200/iktest/fulltext/4 -d'{"content":"中国驻洛杉矶领事馆遭亚裔男子枪击 嫌犯已自首"}'
查询
curl -XPOST http://localhost:9200/iktest/fulltext/_search -d'{ "query" : { "term" : { "content" : "中国" }}, "highlight" : { "pre_tags" : ["<tag1>", "<tag2>"], "post_tags" : ["</tag1>", "</tag2>"], "fields" : { "content" : {} } }}'
结果为
{ "took": 6, "timed_out": false, "_shards": { "total": 5, "successful": 5, "failed": 0 }, "hits": { "total": 2, "max_score": 1.5, "hits": [ { "_index": "iktest", "_type": "fulltext", "_id": "4", "_score": 1.5, "_source": { "content": "中国驻洛杉矶领事馆遭亚裔男子枪击 嫌犯已自首" }, "highlight": { "content": [ "<tag1>中国</tag1>驻洛杉矶领事馆遭亚裔男子枪击 嫌犯已自首" ] } }, { "_index": "iktest", "_type": "fulltext", "_id": "3", "_score": 0.53699243, "_source": { "content": "中韩渔警冲突调查:韩警平均每天扣1艘中国渔船" }, "highlight": { "content": [ "中韩渔警冲突调查:韩警平均每天扣1艘<tag1>中国</tag1>渔船" ] } } ] }}
分词结果查看
curl 'http://host:9200/index/_analyze?analyzer=ik&pretty=true' -d '{ "text": "别说话,我想静静"}'
结果
{ "tokens": [ { "token": "别说", "start_offset": 0, "end_offset": 2, "type": "CN_WORD", "position": 0 }, { "token": "说话", "start_offset": 1, "end_offset": 3, "type": "CN_WORD", "position": 1 }, { "token": "我", "start_offset": 4, "end_offset": 5, "type": "CN_CHAR", "position": 2 }, { "token": "想", "start_offset": 5, "end_offset": 6, "type": "CN_CHAR", "position": 3 }, { "token": "静静", "start_offset": 6, "end_offset": 8, "type": "CN_WORD", "position": 4 }, { "token": "静", "start_offset": 6, "end_offset": 7, "type": "CN_WORD", "position": 5 }, { "token": "静", "start_offset": 7, "end_offset": 8, "type": "CN_WORD", "position": 6 } ]}
0 0
- ElasticSearch2.2.1之IK分词器的安装
- Elasticsearch2.3.1中文分词ik插件安装
- 阿里云上给Elasticsearch2.3.4 安装ik分词插件
- solr5.2.1之IK分词器的配置
- ElasticSearch2.4.2+ik分词+java简单使用
- es ik分词器安装
- elasticsearch 安装ik 分词器
- elasticSearch安装ik分词器
- Elasticsearch安装IK分词器
- elasticsearch ik分词器安装
- elasticsearch安装ik分词器
- Elasticsearch安装IK分词器
- Elasticsearch 安装ik分词器
- ElasticSearch 安装和 IK分词器的安装
- IK分词器的使用
- Elasticsearch之安装ik分词插件
- elasticsearch ik pingyin 分词器的安装和使用
- elasticsearch-2.1.1 安装中文分词器 elasticsearch-analysis-ik
- hibernate的Many2One、Many2Many等的使用
- 特征提取相关网址
- 贪心算法
- 第一次使用CSDN的博客记录我的Java学习历程
- Oracle安装问题: 输入的ADMIN 口令不符合Oracle建议的标准
- ElasticSearch2.2.1之IK分词器的安装
- 2-分布式一致性协议
- NYOJ-104-最大和(最大子串+一个小技巧)
- atom 安装 atom-term2 失败 解决方案
- JNI开发(2)——开发实战
- Cookie
- Objective-序列帧动画一般使用步骤:
- 配置高并发jdbc连接池
- 设计模式开篇(一)