Linux-安装ElasticSearch5.6.8

x33g5p2x  于2021-09-24 转载在 Linux  
字(7.5k)|赞(0)|评价(0)|浏览(482)

下载ElasticSearch5.6.8

下载压缩包:

ElasticSearch的官方下载地址: https://www.elastic.co/cn/downloads/elasticsearch

往下翻

然后

然后选择需要下载的格式

注意下载linux版TAR 的

链接:https://pan.baidu.com/s/1WE-MNe4oamwHUuQ7BFj6Hg
提取码:1234

配置elasticsearch5.6.8和启动

我使用的是CentOS6.5 用的是宝塔终端工具来操作的

在linux中创建这些目录
cd /usr/local/
mkdir tool
cd tool
mkdir elasticsearch
cd elasticsearch

通过宝塔终端将elasticsearch-5.6.8.tar.gz上传/usr/local/tool/elasticsearch这个目录下面

然后使用tar -zxf elasticsearch-5.6.8.tar.gz 命令解压

进入到配置文件目录
cd /usr/local/tool/elasticsearch 进入到安装目录

cd elasticsearch-5.6.8/config 进入到配置目录

打开配置文件

vim elasticsearch.yml

在文件最后添加 一下内容

Centos6不支持SecComp,而ES5.2.0默认bootstrap.system_call_filter为true

bootstrap.memory_lock: false    
bootstrap.system_call_filter: false

使ES支持跨域请求 和 自动获取当前ip

http.cors.enabled: true
http.cors.allow-origin: "*"
http.cors.allow-methods: "GET"
network.host: 0.0.0.0

修改JVM分配空间 否则因为虚拟机内存不够无法启动

cd /usr/local/tool/elasticsearch/elasticsearch-5.6.8/config/

vim jvm.options

将
-Xms2g                                  
-Xmx2g
修改成为:
-Xms340m
-Xmx340m

进入到elasticsearch-5.6.8的 bin 目录

cd /usr/local/tool/elasticsearch/elasticsearch-5.6.8/bin

关闭linux防火墙 否则外网是无法访问的

service iptables status 查看防火状态
service iptables stop 暂时关闭防火墙
chkconfig iptables off 永久关闭防火墙 重启后生效

注意:在linux环境下不支持root用户直接启动(理由是安全问题)
useradd es 添加用户
passwd es 给此用户设置密码

chown -R es:es /usr/local/tool/elasticsearch//* 设置权限

切换到es用户

su es

启动服务

./elasticsearch

可以看到 会报错

切换至root用户 su root 然后输入密码

一个个解决

第[1]

在/etc/security/limits.conf 文件中加入这几行配置

*               soft    nofile          65536
*               hard    nofile          65536

/* 不能少

第[2]

修改这个配置文件
vim /etc/security/limits.d/90-nproc.conf

将里面 1024 改为 2048

/* soft nproc 2048

第[3]

修改vim /etc/sysctl.conf文件,增加配置vm.max_map_count=262144 然后 sysctl -p 保存

第[4]

这个问题我们在上面已经解决了 应该不会爆这个错误的

如果还有其他问题 自己上百度上找 应该都有解决办法的

以上问题都解决了 后 我们在 启动服务一次

可以发现没有任何报错 访问的地址 http://192.168.93.129:9200/

我们实际环境下是使用后台来启动的 加& 这样不会影响到 我们操作linux
./elasticsearch&

使用后会返回给我们一个 进程号 忘了也没关系 我们可以查询到

我们 可通过杀死后台进程来关闭它
ps -ef | grep elastic 查找 ES进程号

杀掉ES进程
kill -9 8157

安装elasticsearch-head图形化插件

head下载地址https://github.com/mobz/elasticsearch-head

链接:https://pan.baidu.com/s/1H6usdfNDFuS41uh_uVHZNQ
提取码:1234

下载下来的安装包elasticsearch-head-master.zip,上传到/usr/local/tool/elasticsearch目录

然后解压
cd /usr/local/tool/elasticsearch

unzip elasticsearch-head-master.zip

下载nodejs(有了跳过) 使用npm -v 有版本号就代表有了
wget -c https://nodejs.org/dist/v12.16.2/node-v12.16.2-linux-x64.tar.xz

下载完成后,直接使用如下命令解压:

tar -xvf node-v12.16.2-linux-x64.tar.xz

配置环境变量:

vim /etc/profile ,在文件内最后添加如下内容,

export NODE_HOME=/root/node-v12.16.2-linux-x64
export PATH=$PATH:$NODE_HOME/bin
export NODE_PATH=$NODE_HOME/lib/node_modules

让配置生效

source /etc/profile

然后node -v会显示版本号,表示node安装成功;

可能会有异常情况:(没问题跳过)
node: /usr/lib64/libstdc++.so.6: version `GLIBCXX_3.4.14’ not found (required by node)

这是由于linux gcc版本太低导致,需要升级,比如我是centerOs6.5,安装nodejs v12就会有问题,需要升级gcc:

下载libstdc.so_.6.0.26

链接:https://pan.baidu.com/s/1wPNBBIPpPEy-SoF-kXP_VA
提取码:1234

通过宝塔终端工具将压缩包放入随便一个目录 比如 /root里

解压
cd /root

unzip libstdc.so_.6.0.26.zip

放到对应目录下面

mv ./libstdc++.so.6.0.26 /usr/lib64/

然后 删除以前的libstdc++.so.6

rm libstdc++.so.6 这里会提示是否删除符号链接 直接 y 就行

ln /usr/lib64/libstdc++.so.6.0.26 /usr/lib64/libstdc++.so.6

然后 strings /usr/lib64/libstdc++.so.6 | grep GLIBC

然后我们在node -v会显示版本号,表示node安装成功;

我们在使用npm -v 会显示版本号表示 环境没问题

进入head根目录安装grunt
cd /usr/local/tool/elasticsearch/elasticsearch-head-master

npm install -g grunt-cli

检测是否安装成功,如果执行命令后出现版本号就表明成功

grunt -version

修改head配置文件Gruntfile.js

在head的配置文件Gruntfile.js中添加host正则匹配项:
cd /usr/local/tool/elasticsearch/elasticsearch-head-master

vim Gruntfile.js

connect: {
        server: {
                  options: {
                          port: 9100,
                          base: '.',
                          keepalive: true,
                          host: '*'                添加这一项
                  }
          }
  }

然后在head目录下执行:

cd /usr/local/tool/elasticsearch/elasticsearch-head-master

安装npm 服务

npm install

启动插件

grunt server

访问 http://你linux的ip:9100/ 比如我的 http://192.168.93.129:9100/

进入显示如下:

我们也可以使用后台启动插件 添加& 的方式 来后台托管 不影响linux其他操作
grunt server&

IK 分词器

介绍

为什么要在elasticsearch中要使用ik这样的中文分词呢,那是因为es提供的分词是英文分词,对于中文的分词就做的非常不好了,因此我们需要一个中文分词器来用于搜索和使用。

支持中文分词的分词器有很多,word分词器、庖丁解牛、盘古

分词、Ansj分词等,但我们常用的还是下面要介绍的IK分词器。

IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,

IKAnalyzer已经推出 了3个大版本。最初,它是以开源项目Lucene为应用主体的,结合词典分词和文法分析算法的

中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件,独立于Lucene项目,同时提供了对

Lucene的默认优化实现。

IK分词器特性如下:

1)采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。

2)采用了多子处理器分析模 式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文 词汇(姓名、地名处理)等分词处理。

3)对中英联合支持不是很好,在这方面的处理比较麻烦.需再做一次查询,同时是支持个人词条的优化的词典存储,更小的内存占用。 4)支持用户词典扩展定义。 5)针对Lucene全文检索优 化的查询分析器IKQueryParser;采用歧义分析算法优化查询关键字的搜索排列组合,能极大的提高Lucene检索的 命中率。

倒排索引

​ 倒排表以字或词为关键字进行索引,表中关键字所对应的记录表项记录了出现这个字或词的所有文档,一个表项就是一个字表段,它记录该文档的ID和字符在该文档中出现的位置情况。
​ 由于每个字或词对应的文档数量在动态变化,所以倒排表的建立和维护都较为复杂,但是在查询的时候由于可以一次得到查询关键字所对应的所有文档,所以效率高于正排表。在全文检索中,检索的快速响应是一个最为关键的性能,而索引建立由于在后台进行,尽管效率相对低一些,但不会影响整个搜索引擎的效率。

下载和配置

下载地址https://github.com/medcl/elasticsearch-analysis-ik/releases

要下载你 elasticsearch 对应 的 iK 否则 你的elasticsearch会不兼容 导致服务启动失败

链接:https://pan.baidu.com/s/1amfF28yVHy7RjrCgI-6boA
提取码:1234

我们先在到cd elasticsearch-5.6.8/plugins下 创建一个名字为analysis-ik的文件夹 (必须的)

mkdir -p  elasticsearch-5.6.8/plugins/analysis-ik
cd  analysis-ik

然后将elasticsearch-analysis-ik-5.6.8 放入linux 的 elasticsearch-5.6.8/plugins/ analysis-ik目录下

然后解压就行了

unzip -o  elasticsearch-analysis-ik-5.6.8.zip

然后重启 elasticsearch-5.6.8 即可自动加载IK分词器

当我们看到 上图 箭头 的信息 那么 就表示 成功了

IK分词器测试

IK提供了两个分词算法ik_smart 和 ik_max_word

其中 ik_smart 为最少切分,ik_max_word为最细粒度划分

我们分别来试一下 :

1)最小切分:在浏览器地址栏输入地址
http://127.0.0.1:9200/_analyze?analyzer=ik_smart&pretty=true&text=我是程序员

输出的结果为:

2)最细切分:在浏览器地址栏输入地址
http://127.0.0.1:9200/_analyze?analyzer=ik_max_word&pretty=true&text=我是程序员

从上面我们就可以看出来 区别了吧 如果内容较为庞大的情况下不建议使用最细切分 那样会导致速度非常慢

既然了解了 IK 那么我们就将IK 映射到Mapping中吧

修改索引映射mapping

重建索引

删除原有blog2索引

使用DELETE请求 http://localhost:9200/blog2

创建blog2索引,此时分词器使用ik_max_word

使用PUT请求 http://localhost:9200/blog2

Body

{
    "mappings":{
        "article":{
            "properties":{
                "id":{
                    "type":"long",
                    "store":true,
                    "index":false
                },
                "title":{
                    "type":"text",
                    "store":true,
                    "index":true,
                    "analyzer":"ik_max_word"
                },
                "content":{
                    "type":"text",
                    "store":true,
                    "index":true,
                    "analyzer":"ik_max_word"
                }
            }
        }
    }
}

创建索引blog2 和表article 以及表结构

elasticsearch-head里 查看索引信息

使用POST请求 http://localhost:9200/blog2/article/1

向blog2索引内article表中添加 文档id为1 的 一行数据

Body

{
    "id":1,
    "title":"ElasticSearch是一个基于Lucene的搜索服务器",
    "content":"它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java 开发的,并作为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎。设计用于云计算中,能够达到实时 搜索,稳定,可靠,快速,安装使用方便。"
}

我们使用 最细切分 来看看 切分后的结果 然后在进行 query_string查询 和 term查询

http://127.0.0.1:9200/_analyze?analyzer=ik_max_word&pretty=true&text=ElasticSearch是一个基于Lucene的搜索服务器

token	"elasticsearch"

token	"是"

token	"一个"

token	"一"

token	"个"

token	"基于"
	
token	"lucene"
	
token	"的"

token	"搜索"

token	"服务器"

token	"服务"

token	"器"

上面就是ik 分词集

我们使用query_String查询 看看有什么变化

发送POST请求 http://localhost:9200/blog2/article/_search

Body

{
    "query":{
        "query_string":{
            "default_field":"title",
            "query":"搜索服务器"
        }
    }
}

结果 是能查询到的 默认采用的是 or 匹配 在ik分词集里 是能匹配到的

然后我们在试试 将请求体搜索服务器字符串修改为 钢索,再次查询 发现并没有查询到

因为 在ik分词集里没有 钢 或者 索 的词

我们使用 term 查询 看看有什么变化

发送POST请求 http://localhost:9200/blog2/article/_search

Body

{
    "query":{
        "term":{
            "title":"搜索"
        }
    }
}

结果发现 是能查询到的 因为在ik分词集里是能找到搜索 这个词

看有什么变化//

发送POST请求 http://localhost:9200/blog2/article/_search

Body

{
    "query":{
        "query_string":{
            "default_field":"title",
            "query":"搜索服务器"
        }
    }
}

结果 是能查询到的 默认采用的是 or 匹配 在ik分词集里 是能匹配到的

然后我们在试试 将请求体搜索服务器字符串修改为 钢索,再次查询 发现并没有查询到

因为 在ik分词集里没有 钢 或者 索 的词

我们使用 term 查询 看看有什么变化

发送POST请求 http://localhost:9200/blog2/article/_search

Body

{
    "query":{
        "term":{
            "title":"搜索"
        }
    }
}

结果发现 是能查询到的 因为在ik分词集里是能找到搜索 这个词

相关文章