WSC_MapReduce-Spark:引入仓库规模计算中的编程模型(Java中的Hadoop MapReduce和Python中的Spark)

时间:2024-05-27 16:13:20
【文件属性】:

文件名称:WSC_MapReduce-Spark:引入仓库规模计算中的编程模型(Java中的Hadoop MapReduce和Python中的Spark)

文件大小:5.72MB

文件格式:ZIP

更新时间:2024-05-27 16:13:20

Java

WSC_MapReduce-Spark 这些是Java和Python示例代码,用于在我的博客教程中显示Warehouse-Scale Computing中编程模型的HOWTO。 下面有五个示例,主要目的是让您亲身体验运行MapReduce并获得对MapReduce范例的更深入的了解,熟悉Apache Spark并获得在本地安装上运行Spark的经验。 Ex1 –生成数据集 例2 –运行字数统计 例3 –文件字数 示例4 –使用Spark Ex5-全文索引创建 有关更多信息,请参阅


【文件预览】:
WSC_MapReduce-Spark-master
----wordcount.py(1KB)
----data()
--------billOfRights.txt.seq(2KB)
--------complete-works-mark-twain.txt.seq(5.71MB)
----Importer.java(7KB)
----DocWordCount.java(7KB)
----solutions()
--------DocWordCount.java(7KB)
--------docwordcount.py(1KB)
--------index.py(1KB)
----README.md(811B)
----docwordcount.py(931B)
----index.py(1KB)
----WordCount.java(7KB)
----Makefile.txt(3KB)

网友评论