Spark大数据中文分词统计Scala语言工程源码

时间:2019-09-10 16:49:17
【文件属性】:

文件名称:Spark大数据中文分词统计Scala语言工程源码

文件大小:395KB

文件格式:7Z

更新时间:2019-09-10 16:49:17

Spark Scala 中文分词 IKAnalyzer 源码

参考网络资源使用IKAnalyzer分词组件,实现了在Spark框架下使用Scala语言对唐诗宋词等国学经典进行中文分词统计排序的功能,你可以轻松发现唐诗宋词中最常用的词是那几个。


【文件预览】:
ScalaWordCount
----bin()
--------com()
--------screen shoot2.png(145KB)
--------scala()
----.settings()
--------org.scala-ide.sdt.core.prefs(259B)
--------org.eclipse.jdt.core.prefs(598B)
----src()
--------com()
--------screen shoot2.png(145KB)
----.project(448B)
----.classpath(610B)
----.cache-main(44KB)

网友评论

  • 具有一定参考性。
  • very good ..... thx
  • 感谢分享,不错。
  • 资源可以用,谢谢分享
  • 不错不错,是不错的资源
  • 亲测,可用的
  • 谢谢,学习一下
  • 这个还不错,学习学习
  • 这个很不错,比较完整,很有学习价值
  • 很赞,感谢无私分享,正好可以学习一下
  • 很赞,感谢无私分享,正好可以学习一下