big-data:大数据要领

时间:2024-04-06 13:22:11
【文件属性】:

文件名称:big-data:大数据要领

文件大小:39.62MB

文件格式:ZIP

更新时间:2024-04-06 13:22:11

HTML

大数据基础知识:HDFS,MapReduce和Spark RDD 讲义和实践练习档案 第一周:什么是BigData和分布式文件系统? 第2周:使用MapReduce解决问题 第3周:使用MapReduce解决问题(练习) 第4周:Apache Spark简介 第5周:Apache Spark入门(练习) 第六周:实际应用 网址:[讲座链接]( ) REF:[讲义]( ) 常见问题| 如何向教学人员展示您的代码? 为了更快,更准确地定义问题,我们需要查看您提交的源代码。 请执行以下步骤: 重新提交任务 点击“获取日志”按钮 发布日志的最后一行。 该行应以“源笔记本”开头。 该路径位于作为基础架构一部分的远程计算机上。 除了您和我们的开发人员之外,任何人都无法访问源代码。 处理垃圾行:> / dev / null 连接码头工人 tmux new -s my_docker


【文件预览】:
big-data-main
----curl()
--------wiki.html(67KB)
--------coursera.html(293KB)
--------gentleCurl.sh(537B)
----flaky_mapper.py(467B)
----StopWords(11KB)
----WordRate.ipynb(7KB)
----countWord()
--------reducer.py(412B)
--------mapper_bigram_inmemory.py(789B)
--------mapper.py(218B)
--------combiner_mean.py(570B)
--------distributedCacheMapper.py(451B)
--------mapper_mean.py(340B)
--------mapper_combiner.py(274B)
--------scriptToHadoop.py(453B)
--------envVarMapper.py(865B)
--------mapper_bigram.py(245B)
----WordCount.ipynb(13KB)
----README.md(2KB)
----assignment2()
--------reducer.py(433B)
--------mapper.py(491B)
--------template.py(425B)
----Lecture Note()
--------DFS_HDFS_Architecture_and_Scalability_Problems_Sieun_Bae_.pdf(9.5MB)
--------Week2_Hadoop_MapReduce_How_to_Build_Reliable_System_from_Unreliable_Components_Sieun_Bae_.pdf(6.47MB)
--------Week_2_Hadoop_MapReduce_Streaming_Applications_in_Python.pdf(9.3MB)
--------Week2_Hadoop_MapReduce_Application_Tuning_Job_Configuration_Comparator_Combiner_Partitioner.pdf(10.73MB)
--------Week1_Tuning_Distributed_Storage_Platform_with_File_Types_Sieun_Bae_.pdf(4.78MB)
----assignment1()
--------cli.md(5KB)
----spark()
--------[spark]_versionCheck_week1.ipynb(1003B)

网友评论