文件名称:word-suggestor-spark-hadoop:使用 Anagram 逻辑、Apache Spark、Hadoop 的词建议器。 这是一个将文件加载到 HDFS 并使用 Apache Spark Java API(如 MapReduce 和文本搜索)的示例
文件大小:13.45MB
文件格式:ZIP
更新时间:2024-07-31 11:39:27
Java
word-suggestor-spark-hadoop 使用 Anagram 逻辑、Apache Spark、Hadoop 的词建议器。 用过的:- JDK 1.7 hadoop-2.4.0 spark-1.0.0-bin-hadoop2 WordList目录包含从下载的带有单词的文件。 单词列表有帮助。 lib目录包含此项目的类路径中使用的 jar。 FSToHDFSApplication .java 这使用 Hadoop Java API 将文件从文件系统复制到 HDFS 这使用 hadoop-0.23.3-dev-core.jar 在 hadoop-2.4.0 上测试。 如何跑步 使用您的 hdfs 路径更新文件 准备一个罐子 ./bin/hadoop jar /path/to/created/jar.jar sid.hdfs.FSToHDFSApplication
【文件预览】:
word-suggestor-spark-hadoop-master
----.gitignore(38B)
----src()
--------sid()
----WordList()
--------B Words.txt(60KB)
--------F Words.txt(45KB)
--------W Words.txt(25KB)
--------Y Words.txt(4KB)
--------E Words.txt(46KB)
--------L Words.txt(33KB)
--------H Words.txt(38KB)
--------O Words.txt(32KB)
--------R Words.txt(58KB)
--------Z Words.txt(5KB)
--------S Words.txt(136KB)
--------D Words.txt(62KB)
--------M Words.txt(59KB)
--------K Words.txt(12KB)
--------I Words.txt(34KB)
--------J Words.txt(10KB)
--------.DS_Store(6KB)
--------U Words.txt(40KB)
--------C Words.txt(99KB)
--------Q Words.txt(6KB)
--------X Words.txt(1KB)
--------T Words.txt(61KB)
--------V Words.txt(20KB)
--------G Words.txt(39KB)
--------P Words.txt(89KB)
--------A Words.txt(63KB)
--------N Words.txt(21KB)
----README.md(2KB)
----lib()
--------apache-commons-lang.jar(278KB)
--------org-apache-commons-logging.jar(59KB)
--------hadoop-0.20.3-dev-core.jar(2.49MB)
--------commons-configuration-1.7.jar(342KB)
--------spark-core_2.10-1.1.0.jar(6.15MB)
--------scala-library-2.11.2.jar(5.29MB)