Spark大数据中文分词统计Java工程源码

时间:2019-09-02 16:40:52
【文件属性】:

文件名称:Spark大数据中文分词统计Java工程源码

文件大小:379KB

文件格式:7Z

更新时间:2019-09-02 16:40:52

Spark Java MapReduce IKAnalyzer 大数据

参考网络资源使用IKAnalyzer分词组件,实现了纯Java语言、MapReduce模式及Spark 框架三种方式对唐诗宋词等国学经典进行中文分词统计排序的功能,你可以轻松发现唐诗宋词中最常用的词是那几个。


【文件预览】:
JavaWordCount
----src()
--------com()
--------screen shoot.png(131KB)
----bin()
--------com()
--------screen shoot.png(131KB)
----.classpath(641B)
----.settings()
--------org.eclipse.core.runtime.prefs(52B)
--------org.eclipse.core.resources.prefs(174B)
--------org.eclipse.jdt.ui.prefs(5KB)
--------org.eclipse.jdt.core.prefs(670B)
----.project(389B)

网友评论

  • 这个spark资源还是有一定作用的 谢谢
  • 具有一定参考性。
  • 感谢你的分享
  • 为什么网上用纯java实现的例子比较少,是不是scala的比较多
  • 谢谢博主。。。
  • 自己三个jar包就行了
  • 没有jar包啊
  • 很好的资源,谢谢博主
  • 还得找jar包?假的?
  • 完全可以运行,谢谢!
  • 很好的资源 一直在学习中 感觉博主很用心