第一步:在Eclipse新建一个Java项目,hadoop-1.0.3
第二步:将Hadoop程序src下core, hdfs, mapred, tools几个目录copy到上述新建项目的src目录
第三步:修改将Java Build Path,删除src,添加src/core, src/hdfs....几个源码目录
第四步:为Java Build Path添加项目依赖jar,可以导入Hadoop程序的lib下所有jar包(hadoop-1.0.3目录下的jar文件,lib子目录下的jar文件),还有要下载的ant.jar也要导入。
第五步:理论上第四步就OK了,但是会报大量如下错误:
解决办法是:右键项目“propertiyes” > "Java Build Path" > "Libraries",展开"JRE System Library",双击"Access rules",点击"Add"按钮,在"Resolution"下拉框选择"Accessible","Rule Pattern"填写"**/*",保存后就OK了。
=============================================================================
--heipark
首先我们需要对hadoop解压包的目录结构有个大概了解,解压下载的hadoop1.0.4版本压缩包到文件系统,目录如下:
bin: 此目录下为进行hadoop配置、运行以及管理的shell命令集合
c++:此目录下为linux下amd64-64位系统以及i386-32位系统提供的库文件集合
conf:此目录下为运行与配置hadoop环境需要的配置文件以及示例文件集合,实际运行时可以对照此目录下的文件结构进行相应的配置
contrib:此目录下针对hadoop运行过程中需要特殊强化的模块进行了模块化封装,此为其发布包以及相应的配置文件
docs:此目录下包含对于hadoop运行配置的基本文档,包括html和pdf两种格式
ivy:此目录下包含编译hadoop的ivy编译工具的脚本和配置文件
lib:此目录下包含编译以及运行hadoop环境必须的其他模块jar包集合
libexec:检查配置所有运行hadoop所需的脚本文件
logs: 日志文件夹
mapred:
sbin:此目录下包含创建hadoop运行环境中所需系统级功能的脚本文件
share:此目录下包括整个项目各个模块共有的配置文件
src:hadoop源码
webapps:发布包中的示例程序
build.xml:编译工程所需的ant配置文件
CHANGES.txt:新版本针对上一版本的更新点
hadoop-ant-1.0.0.jar
hadoop-core-1.0.0.jar
hadoop-examples-1.0.0.jar
hadoop-test-1.0.0.jar
hadoop-tools-1.0.0.jar