【ElasticSearch 】IK 分词器安装

这篇具有很好参考价值的文章主要介绍了【ElasticSearch 】IK 分词器安装。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


1、环境准备

Elasticsearch 要使用 ik,就要先构建 ik 的 jar包,这里要用到 maven 包管理工具,而 maven 需要java 环境,而 Elasticsearch 内置了jdk, 所以可以将JAVA_HOME设置为Elasticsearch 内置的jdk
1)设置JAVA_HOME

vim /etc/profile
# 在profile文件末尾添加
#java environment
export JAVA_HOME=/opt/elasticsearch-7.4.0/jdk
export PATH=$PATH:${JAVA_HOME}/bin

# 保存退出后,重新加载profile
source /etc/profile

2)准备maven安装包
上传 maven 安装包

3)解压maven安装包
tar xzf apache-maven-3.1.1-bin.tar.gz

4)设置软连接
ln -s apache-maven-3.1.1 maven

5)设置path
打开文件
vim /etc/profile.d/maven.sh
将下面的内容复制到文件,保存

export MAVEN_HOME=/opt/maven  
export PATH=${MAVEN_HOME}/bin:${PATH}

设置好Maven的路径之后,需要运行下面的命令使其生效
source /etc/profile.d/maven.sh

6)验证maven是否安装成功
mvn -v

2、安装IK分词器

1)准备 IK
上传安装包

2)解压IK
由于这里是zip包不是gz包,所以我们需要使用unzip命令进行解压,如果本机环境没有安装unzip,请执行:

yum install zip 
yum install unzip

解压IK
unzip elasticsearch-analysis-ik-7.4.0.zip

3)编译jar包

# 切换到 elasticsearch-analysis-ik-7.4.0目录
cd elasticsearch-analysis-ik-7.4.0/
#打包
mvn package

执行 mvn package 命令时如果出现 打包失败(501码)将maven镜像换成阿里云的:
vim /opt/apache-maven-3.1.1/conf/settings.xml
在打开的配置文件中 节点中添加如下:

alimaven
aliyun maven
http://maven.aliyun.com/nexus/content/groups/public/
central

打包成功

4) jar包移动
package 执行完毕后会在当前目录下生成 target/releases 目录,将其中的 elasticsearch-analysis-ik-7.4.0.zip。
拷贝到 elasticsearch 目录下的新建的目录 plugins/analysis-ik,并解压

#切换目录
cd /opt/elasticsearch-7.4.0/plugins/
#新建目录
mkdir analysis-ik
cd analysis-ik
#执行拷贝
cp -R /opt/elasticsearch-analysis-ik-7.4.0/target/releases/elasticsearch-analysis-ik-7.4.0.zip  /opt/elasticsearch-7.4.0/plugins/analysis-ik
#执行解压
unzip  /opt/elasticsearch-7.4.0/plugins/analysis-ik/elasticsearch-analysis-ik-7.4.0.zip

5)拷贝辞典
将 elasticsearch-analysis-ik-7.4.0 目录下的 config 目录中的所有文件 拷贝到 elasticsearch 的 config 目录
cp -R /opt/elasticsearch-analysis-ik-7.4.0/config/* /opt/elasticsearch-7.4.0/config


记得一定要重启Elasticsearch!!!文章来源地址https://www.toymoban.com/news/detail-470009.html

到了这里,关于【ElasticSearch 】IK 分词器安装的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 安装elasticsearch、kibana、IK分词器、扩展IK词典

    后面还会安装 kibana ,这个会提供可视化界面方面学习。 需要注意的是 elasticsearch 和 kibana 版本一定要一样!!! 否则就像这样 1、创建网络 因为我们还需要部署kibana容器,因此需要让es和kibana容器互联。这里先创建一个网络: 2、镜像安装 pull 安装 因为镜像文件比较大,将

    2024年02月02日
    浏览(23)
  • 本地elasticsearch中文分词器 ik分词器安装及使用

    ElasticSearch 内置了分词器,如标准分词器、简单分词器、空白词器等。但这些分词器对我们最常使用的中文并不友好,不能按我们的语言习惯进行分词。 ik分词器就是一个标准的中文分词器。它可以根据定义的字典对域进行分词,并且支持用户配置自己的字典,所以它除了可

    2024年02月05日
    浏览(46)
  • Elasticsearch下载安装,IK分词器、Kibana下载安装使用,elasticsearch使用演示

    首先给出自己使用版本的网盘链接:自己的版本7.17.14 链接:https://pan.baidu.com/s/1FSlI9jNf1KRP-OmZlCkEZw 提取码:1234 一般情况下 Elastic Search(ES) 并不单独使用,例如主流的技术组合 ELK(Elasticsearch + Logstash + Kibana ) 1. Elasticsearch下载 下载之前,先看下和 JDK 版本的对应关系,版本

    2024年02月05日
    浏览(24)
  • Elasticsearch安装中文分词器IK Analyzer

    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 本文介绍IK Analyzer分词器的安装配置、使用以及ES数据迁移。 克隆IK分词器项目,根据README的描述选择对应版本的分支。浏览器访问ES的ip+端口就能看到版本信息,所以我需要切到master分支。 打开pom需要

    2024年02月12日
    浏览(28)
  • Docker:Elasticsearch安装配置IK分词器

    一、背景:   搞了elasticsearch和kibana的安装和配置,在进行分词的时候没有达到自己预想的效果,于是写一下elasticsearch的ik分词器的安装和配置(自定义分词)。 二、解决方式: 1:首先看看没有加ik分词器的效果。 2:下载ik软件包。  3:选择自己响应版本。  4:将下载好的

    2023年04月18日
    浏览(23)
  • 【ElasticSearch】一键安装IK分词器无需其他操作

    要注意的时下面命令中的es是我容器的名称,要换成你对应的es容器名  docker exec -it es /bin/bash # 进入容器 ./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis- ik/releases/download/v7.12.1/elasticsearch-analysis-ik-7.12.1.zip # 下载 eixt # 退出 docker restart es # 重启es 最后访问Kibana界面

    2024年02月11日
    浏览(23)
  • 通过docker安装Elasticsearch以及ik分词器

    1 拉取镜像,Elasticsearch对应SpringBoot2.2.3 2 运行镜像,映射端口9200,9300 3 通过浏览器ip+9200访问如下即可。 1 进入elasticsearch容器 2 进入bin目录下 3 下载ik分词器 4 重启容器,通过可视化工具即可测试 可视化工具可以通过修改配置文件来连接不同ip的elasticsearch。 下载官方网址:

    2023年04月12日
    浏览(21)
  • ElasticSearch之IK分词器安装以及使用介绍

    elasticsearch 默认的内置分词器对中文的分词效果可能并不理想,因为它们主要是针对英文等拉丁语系的文本设计的。如果要在中文文本上获得更好的分词效果,我们可以考虑使用中文专用的分词器。 IK 分词器是一个开源的中文分词器插件,特别为 Elasticsearch 设计和优化。它在

    2024年02月13日
    浏览(21)
  • Elasticsearch安装IK分词器踩坑记录

    在安装ES ik分词器参考如下博文进行安装时报后面的错误提示 https://blog.csdn.net/ZHHX666/article/details/125953385 错误提示: 参考如下博文得已解决: https://blog.csdn.net/Sun_shine95/article/details/126042447 结论: 可能是不同版本目录不同,建议还是使用命令进行安装,不要自己手动建目录。

    2024年01月25日
    浏览(19)
  • Docker部署elasticsearch及安装IK分词器插件

    1、拉取启动es镜像 docker run -d --name elasticsearch -p 9200:9200 -p 9300:9300 -e \\\"discovery.type=single-node\\\" elasticsearch:7.6.2 以上方法为正常安装,但是es是重量级框架,内存耗用多。据实际硬件情况,可参考如下安装方式限制es的内存为64M-512M之间,若需要配置设置网络可自行创建网络并用--n

    2024年04月12日
    浏览(23)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包