中文分词库 IKAnalyzer For Lucene 5.2.1(适用Lucene 5.2.1)

时间:2018-07-28 02:26:45
【文件属性】:

文件名称:中文分词库 IKAnalyzer For Lucene 5.2.1(适用Lucene 5.2.1)

文件大小:1.1MB

文件格式:JAR

更新时间:2018-07-28 02:26:45

IKAnalyzer

此版本是基于IK-Analyzer-2012FF修改而来,专门适用于Lucene 5.2.1。 IK Analyzer 是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了4个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。从3.0版本开始,IK发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。在2012版本中,IK实现了简单的分词歧义排除算法,标志着IK分词器从单纯的词典分词向模拟语义分词衍化。


网友评论

  • 正好学习这个,好用
  • 确实兼容了,谢谢,正有用
  • 不错,可以使用
  • 建议用elastic search比较好
  • 确实兼容了,谢谢,正有用
  • 很好的资源,正在测试中
  • 分词库效果不错
  • 不错的资源,可以使用
  • 正在用,很稳定
  • 很好的资源,正在测试中
  • 正好学习这个,好用!
  • 确实兼容了,谢谢,正有用
  • 非常好,正在用
  • 很好的资源,正在测试中
  • 确实兼容了,谢谢,正有用
  • 正是我想要的,谢谢楼主分享!
  • 比较好,使用后直接解决了我的问题。不过最后还是自己下载了源码。
  • 这个分值了!!弄了一个晚上分词器,都没找到跟最新的lucene适配的,准备放弃的时候,抱着试一试的心态,终于成功了。感谢兄弟!~
  • 非常好用, 谢谢
  • 很好,支持最新版本lucene
  • 正在学习lucene,谢谢
  • 分词跟自带的SmartChinese没有什么分别
  • 可以兼容5.3.1
  • 很好 就是贵了点
  • 可以使用,版本较新,非常感谢分享。
  • 支持最新版本lucene
  • 还不错,加一行代码TokenStream ts=anal.tokenStream("", reader);ts.reset();就能用了
  • 支持最新的lucene,希望更新下去
  • 支持最新的lucene分享
  • 很好,支持最新版本lucene