中文分词器安装配置
来源:互联网 发布:盛发软件 编辑:程序博客网 时间:2024/06/04 21:37
到网上下载ik analyzer包
download
解压后得如下目录:
我们先在solr_home
(我的solo_home
是F:\solr-4.6.0\solr\example\solr
)下新建一个lib文件夹,把上述解压后的IKAnalyzer2012FF_u1.jar文件拷贝到刚刚新建的lib文件夹中。然后把IKAnalyzer.cfg.xml和stopword.dic拷贝到F:\solr-4.6.0\solr\example\solr\collection1\conf目录下(也就是跟schema.xml同一个目录下),最后在schema.xml中增加一段配置:
1、 将IKAnalyzer-2012-4x.jar或者IKAnalyzer2012FF_u1.jar
拷贝到example\solr-webapp\webapp\WEB-INF\lib
下;
2、 然后在example\solr\collection1\conf\schema.xml
中添加fieldType
:
<fieldType name="text_ik" class="solr.TextField"> <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/> </fieldType>
如果哪一个字段的类型是“text_ik”,该字段将进行中文分词,比如(如图),title
字段就可以进行中文分词,其他的字段不能使用中文分词:
启动solr测试java -jar start.jar
:
最后测试中文的时候可以选择用text_ik
(就是上述配置中fieldType name=”text_ik”定义的)测试;也可以选择 title
(上述配置字段 field name="title" type="text_ik"
的)测试。效果如下:
0 0
- 中文分词器安装配置
- solr安装和配置中文分词器
- solr 的安装与使用、中文分词器的配置
- solr中MMSEG4j、IK Analyzer中文分词器安装配置
- solr与中文分词器的安装配置
- solr配置中文分词器
- IK中文分词器配置
- solr 中文分词器配置
- solr配置中文分词器
- Solr配置中文分词器
- elasticsearch安装配置及中文分词
- Sphinx + MySQL + 中文分词安装配置
- elasticsearch安装配置及中文分词
- elasticsearch安装配置及中文分词
- elasticsearch安装配置及中文分词
- solr 7.0 tomcat 安装配置 + 中文分词
- 安装中文分词器 IKAnalyzer
- solr 中文分词器IK分词器的配置
- websocket
- JS客户端获取服务端返回数据方法总结
- Unity3D - 图形性能优化
- wxPyhton之GDI
- 云计算中为什么需要sdn?
- 中文分词器安装配置
- php 模板替换实现静态页面简单代码实现
- 玲珑OJ 1045 - I. Quailty and LRU Algorithm 模拟双向链表
- python中self和cls的区别
- 单例模式与静态变量的区别
- 身高体重计算器
- MapReuce笔记二之MR任务在yarn容器中的资源管理
- Unity3D - 图形性能优化:优化着色器加载时间
- Codeforces710C【数学】