可训练的中文分词和词性标注系统

时间:2014-01-15 08:09:04
【文件属性】:

文件名称:可训练的中文分词和词性标注系统

文件大小:1.91MB

文件格式:RAR

更新时间:2014-01-15 08:09:04

机器学习 中文分词 词性标注 crf hmm

采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。本系统使用java语言编写


网友评论

  • 感谢资源,很好用
  • 感谢资源,虽然没看太懂,但是还是非常感谢
  • 没用上,可读性不高,但谢谢分享
  • 在学,看上去还不错!!
  • 相当不错,有源代码,好好研究研究,需要训练,不知道训练样本怎么弄。
  • 很有帮助谢谢了
  • http://wenku.baidu.com/view/54836f106c175f0e7cd13715.html 跟上面的文件一起看,有助于理解代码
  • 没有什么注释,这样很难看的懂的
  • 代码需要仔细阅读,看起来不容易
  • 可用但是没有详细文档
  • 挺不错的,很用心的一份代码。 不过大多数人都难以坚持看完吧,不太容易看完
  • 文档太少了,有点看不懂,花费时间多了点
  • 注释太简单。。不会用
  • 稍稍改改就能用的
  • 基本可用,也没有详细的说明文档
  • 结构很清晰,不过要看懂的话需要花一段时间。
  • 注释少,看不太懂
  • 基本不能用,也没有详细的说明文档。
  • 分词结果不是很准确啊
  • 可用,但注释少了点
  • 工程配置说明简明到我用不了,一运行就出错: Unable to read the model! java.io.FileNotFoundException: model.lex (系统找不到指定的文件。) at java.io.FileInputStream.open(Native Method) at java.io.FileInputStream.<init>(Unknown Source) at java.io.FileInputStream.<init>(Unknown Source) at java.io.FileReader.<init>