中文分词+自动提取关键字

时间:2013-05-03 04:38:06
【文件属性】:

文件名称:中文分词+自动提取关键字

文件大小:2.59MB

文件格式:RAR

更新时间:2013-05-03 04:38:06

中文分词,自动提取关键字,词频统计

1:中文分词 2:词频统计 3:罗列出要自动提取的关键字 ---------------------------------------- 具有60 万字/秒的高速处理能力。


【文件预览】:
中文分词+关键字提取
----(2)IKAnalyzer中文分词器V3.2.0使用手册.pdf(431KB)
----IKAnalyzer3.2.0Stable.jar(1.11MB)
----lucene-core-2.9.2.jar(1.06MB)
----ext_stopword.dic(153B)
----(1)功能使用手册.pdf(123KB)
----IKAnalyzer.java(3KB)
----IKAnalyzerDemo.java(3KB)
----IKAnalyzer.cfg.xml(479B)

网友评论

  • 一般吧,下载现在找不到了。。。
  • 晕,这个竟然是java的
  • 不错, 文档写的很清楚规范
  • 有代码也有pdf,不错的资源,谢谢楼主
  • 学习里面的词频统计功能 赞
  • 这个不怎么适合我,不过学习了
  • 不错,是java的
  • 程序很好 目前正好需要 研究了下 跟html-parser结合起来用更好
  • 有一定的借鉴作用
  • 缺少一个类吧? package org.wltea.analyzer.lucene; import org.apache.lucene.search.DefaultSimilarity; /** * IK Analyzer v3.2 * 相似度评估器 * 重载了DefaultSimilarity的coord方法 * 提高词元命中个数在相似度比较中的权重影响,即,当有多个词元得到匹配时,文档的相似度将提高 */ public class IKSimilarity extends DefaultSimilarity { private static final