Lucene中文分词器包

时间:2010-09-03 11:48:07
【文件属性】:

文件名称:Lucene中文分词器包

文件大小:853KB

文件格式:JAR

更新时间:2010-09-03 11:48:07

Java Lucene 中文分词 共享 开源

来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。
1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP)
2. 对数量词、地名、路名的优化处理
3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率
(使用方法请参考IKAnalyzer V1.1版)


网友评论

  • Lucene中文分词器包
  • 不错 回顾一下Lucene
  • 还没装好,不知效果如何
  • 版本相对比较老,不过作为分词初步学习还是可以
  • 一般般 还是不能支持中英文混合
  • 版本有点老啊
  • 学自然语言的真的很不容易啊 楼主加油 资源肯定很好
  • 一般般 还是不能支持中英文混合
  • 已经很旧了
  • 留着备用,虽然很旧了