es中自定义ik的分词词库(词库布置在nginx)

时间:2024-10-26 11:10:20

文末有es和ik的下载教程(高版本的es自带ik)

1 创建nginx容器

1.1拉取nginx

#先随便拉取一个ngnix 为了复制配置
docker run -p 80:80 --name nginx -d nginx:1.10

1.2复制配置

#在mydata创建 nginx/conf 的目录结构,cd到conf里面 
#然后将容器内的配置文件拷贝到当前目录
docker container cp nginx:/etc/nginx .

1.3删除容器

docker rm -f nginx
#删除容器

1.4重新创建容器

docker run -p 80:80 --name nginx \
-v/mydata/nginx/html:/usr/share/nginx/html \
-v/mydata/nginx/logs:/var/log/nginx \
-v/mydata/nginx/conf:/etc/nginx \
-d nginx:1.10

1.5 创建词库

首先cd到html目录下

然后创建/es/fenci.txt

在文件中输入需要的分词,然后保存文件

然后cd到/mydata/elasticsearch/plugins/ik/config/这个目录下

然后vi IKAnalyzer.cfg,xml

按照下面图示输入自定义的路径

2 ik的下载

2.1 下载zip

传送  下载zip的形式的(一定要和es的版本对应)

2.2 解压

解压文件夹

然后整个文件夹移动到  /mydata/elasticsearch/plugins/这个目录下即可

3 es+kibana的下载

3.1 拉取镜像

运行以下代码

docker pull elasticsearch:7.4.2
docker pull kibana:7.4.2
echo "http.host: 0.0.0.0">>/mydata/elasticsearch/config/elasticsearch.yml

3.2运行容器

docker run --name elasticsearch -p 9200:9200 -p 9300:9300 \
-e "discovery.type=single-node" \
-e ES_JAVA_OPTS="-Xms64m -Xmx512m" \
-v /mydata/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
-v /mydata/elasticsearch/data:/usr/share/elasticsearch/data \
-v /mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins \
-d elasticsearch:7.4.2

3.3安装

docker inspect elasticsearch |grep IPAddress
 
# 这里的http://172.17.0.3写自己电脑运行的上面命令的地址
docker run --name kibana -e ELASTICSEARCH_HOSTS=http://172.17.0.3:9200 -p 5601:5601 \
-d kibana:7.4.2