报错问题解决
es安装过程中可能会遇到以下错误,对应解决方案错误1:max file descriptors [4096] for elasticsearch process likely too low, increase to at least [65536]修改:/etc/security/limits.conf* hard nofile 65536* soft nofile 65536错误2:max virtual memory areas vm.max_map_count [65530] likely too low, increase to at least [262144]/etc/sysctl.conf 增加如下信息vm.max_map_count=262144
一、基础信息
硬件环境
三台centos7虚拟机
软件版本
- elasticsearch-5.4.1.tar.gz
- kibana-5.4.1-linux-x86_64.tar.gz
- jdk-8u144-linux-x64.tar.gz
- elasticsearch-analysis-ik-5.4.1.zip
网络分配
系统 | 主机名 | ip | centos7桌面版master192.168.80.130centos7 minimalslave1192.168.80.131centos7 minimalslave2192.168.80.132二、搭建步骤
1.基础环境设置
防火墙
关闭主机防火墙,这一步很重要systemctl stop firewalld.service systemctl disable firewalld.service firewall-cmd --stat
安装jdk
三台虚拟机都需要进行
1.解压安装包tar zxvf jdk-8u144-linux-x64.tar.gzmv jdk1.8.0_144 /path //注意path改为自己的安装路径2.修改环境变量sudo vim /etc/profile末尾添加如下内容export JAVA_HOME=your_java_home //your_java_home对应自己的安装路径export PATH=$PATH:$JAVA_HOME/binexport CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib/tool.jar:$JAVA_HOME/lib/dt.jar3.使环境变量生效source /etc/profile4.验证是否生效java -version
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
2.es安装
1.解压tar zxvf elasticsearch-5.4.1.tar.gz //解压到自己的安装路径下2.配置esvim elasticsearch-5.4.1/config/elasticsearch.yml添加如下信息:cluster.name: cluster_name //自己的集群名称node.name: master //节点名称network.host: master //节点ip,可以直接输入iphttp.port: 9200 node.master: true //是否作为master,默认为truenode.data: false //是否作为data,默认为truediscovery.zen.ping.unicast.hosts: ["slave1", "slave2","master"]discovery.zen.minimum_master_nodes: 1 //最少master数#discovery.zen.ping_timeout: 120s//ping的超时时间,用于发现节点,生产中时间过短可能会有问题,默认是3秒3.分发es配置完成之后将安装包分发到不同的节点上scp elasticsearch-5.4.1 root@slave1:/optscp elasticsearch-5.4.1 root@slave2:/opt4. 更改另外两个节点配置同样更改elasticsearch.yml配置文件添加如下信息cluster.name: cluster_name //自己的集群名称node.name: slave1 //节点名称network.host: slave1 //节点ip,可以直接输入iphttp.port: 9200 node.master: false //是否作为master,默认为truenode.data: true //是否作为data,默认为truediscovery.zen.ping.unicast.hosts: ["slave1", "slave2","master"]discovery.zen.minimum_master_nodes: 1 //最少master数#discovery.zen.ping_timeout: 120s//ping的超时时间,用于发现节点,生产中时间过短可能会有问题,默认是3秒
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
3.安装kibana
一台安装就行了
1.解压tar zxvf kibana-5.4.1-linux-x86_64.tar.gz
4. 安装中文ik分词
三台节点都需安装
可以自己下载源码使用maven编译,当然如果怕麻烦可以直接下载编译好的https:注意下载对应的版本unzip elasticsearch-analysis-ik-5.4.1.zip在es的plugins下新建ik目录mkdir ik将刚才解压的复制到ik目录下cp -r elasticsearch-analysis-ik-5.4.1
5.安装完成启动
1.开启 essh bin/elaticsearch2.开启kibanash bin/kibana 2.验证中文分词终端中输入命令curl -XGET 'http://10.202.105.41:9200/_analyze?pretty&analyzer=ik_max_word' -d '联想是全球最大的笔记本厂商'输出结果:{ "tokens" : [ { "token" : "联想", "start_offset" : 0, "end_offset" : 2, "type" : "CN_WORD", "position" : 0 }, { "token" : "全球", "start_offset" : 3, "end_offset" : 5, "type" : "CN_WORD", "position" : 1 }, { "token" : "最大", "start_offset" : 5, "end_offset" : 7, "type" : "CN_WORD", "position" : 2 }, { "token" : "笔记本", "start_offset" : 8, "end_offset" : 11, "type" : "CN_WORD", "position" : 3 }, { "token" : "笔记", "start_offset" : 8, "end_offset" : 10, "type" : "CN_WORD", "position" : 4 }, { "token" : "笔", "start_offset" : 8, "end_offset" : 9, "type" : "CN_WORD", "position" : 5 }, { "token" : "记", "start_offset" : 9, "end_offset" : 10, "type" : "CN_CHAR", "position" : 6 }, { "token" : "本厂", "start_offset" : 10, "end_offset" : 12, "type" : "CN_WORD", "position" : 7 }, { "token" : "厂商", "start_offset" : 11, "end_offset" : 13, "type" : "CN_WORD", "position" : 8 } ]}安装成功!!!!