【文件属性】:
文件名称:中文分词+自动提取关键字
文件大小:2.59MB
文件格式:RAR
更新时间:2013-05-03 04:38:06
中文分词,自动提取关键字,词频统计
1:中文分词
2:词频统计
3:罗列出要自动提取的关键字
----------------------------------------
具有60 万字/秒的高速处理能力。
【文件预览】:
中文分词+关键字提取
----(2)IKAnalyzer中文分词器V3.2.0使用手册.pdf(431KB)
----IKAnalyzer3.2.0Stable.jar(1.11MB)
----lucene-core-2.9.2.jar(1.06MB)
----ext_stopword.dic(153B)
----(1)功能使用手册.pdf(123KB)
----IKAnalyzer.java(3KB)
----IKAnalyzerDemo.java(3KB)
----IKAnalyzer.cfg.xml(479B)
网友评论
- 一般吧,下载现在找不到了。。。
- 晕,这个竟然是java的
- 不错, 文档写的很清楚规范
- 有代码也有pdf,不错的资源,谢谢楼主
- 学习里面的词频统计功能 赞
- 这个不怎么适合我,不过学习了
- 不错,是java的
- 程序很好 目前正好需要 研究了下 跟html-parser结合起来用更好
- 有一定的借鉴作用
- 缺少一个类吧? package org.wltea.analyzer.lucene; import org.apache.lucene.search.DefaultSimilarity; /** * IK Analyzer v3.2 * 相似度评估器 * 重载了DefaultSimilarity的coord方法 * 提高词元命中个数在相似度比较中的权重影响,即,当有多个词元得到匹配时,文档的相似度将提高 */ public class IKSimilarity extends DefaultSimilarity { private static final