文件名称:Elasticsearch之中文分词器插件es-ik(基于es2.4.0版本)
文件大小:4.3MB
文件格式:ZIP
更新时间:2020-07-26 11:53:11
中文分词器 插件
如果直接使用Elasticsearch的朋友在处理中文内容的搜索时,肯定会遇到很尴尬的问题——中文词语被分成了一个一个的汉字,当用Kibana作图的时候,按照term来分组,结果一个汉字被分成了一组。 这是因为使用了Elasticsearch中默认的标准分词器,这个分词器在处理中文的时候会把中文单词切分成一个一个的汉字,因此引入es之中文的分词器插件es-ik就能解决这个问题。
【文件预览】:
httpcore-4.4.4.jar
elasticsearch-analysis-ik-1.10.0.jar
config
----main.dic(2.92MB)
----surname.dic(752B)
----quantifier.dic(2KB)
----custom()
--------single_word.dic(62KB)
--------single_word_full.dic(62KB)
--------mydict.dic(130B)
--------single_word_low_freq.dic(11KB)
--------ext_stopword.dic(156B)
--------sougou.dic(4.98MB)
----stopword.dic(164B)
----suffix.dic(192B)
----preposition.dic(123B)
----IKAnalyzer.cfg.xml(697B)
httpclient-4.5.2.jar
plugin-descriptor.properties
commons-codec-1.9.jar
commons-logging-1.2.jar