Hadoop分布式安装(参考hadoop入门手册)
一、安装准备
1、下载hadoop 0.20.2,地址:http://www.apache.org/dist/hadoop/core/hadoop-0.20.2/
2、JDK版本:jdk-6u30-linux-i586.bin (必须是1.6+)
3、操作系统:window7主机 三个虚拟机节点
4、三台机器,192.168.153.132(master),192.168.153.131(slave),192.168.153.133(slave)(具体的话根据你自己的ip设置,ping通即可)
二、安装操作
1、拷贝以上文件到master(我是基于ftp协议上传的文件)。
2、安装JDK,此步省略...(注意权限)
3、解压hdaoop到/usr/hadoopj目录下。tar -zxvf hadoop 0.20.2.tar.gz
4、配置132机器可以通过SSH直接访问131和133。
输入:ssh-keygen -T rsa将会产生一对密钥,一路狂按enter回车键公约和私钥就存储在当前登录用户的.SSH文件夹后面比如我的是lupenglian登陆的在把公约重新命名具体的你也看到啦,mv 命令实现改名,接着就是把你的公约交给你的slave节点,这里使用scp命令传到scp filename ip:directory就行啦,最后一步也是最重要的要保存一下ssh-add5、修改/usr/hadoop-0.20.2/conf/目录下的master文件,内容如下:
192.168.153.1326、修改/usr/hadoop-0.20.2/conf/目录下的slaves文件,内容如下:
192.168.153.131
192.168.153.1337、修改/usr/hadoop-0.20.2/conf/hadoop-env.sh文件的环境变量:
#找到对应的行号,vim命令的话命令末实现输入?进行字符串的查找
# The java implementation to use. Required.
export JAVA_HOME=/usr/java/jdk1.6.0_308、修改/usr/hadoop-0.20.2/conf/core-site.xml配置文件,内容如下:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/hadoop</value>#注意hadoop文件夹应该对当前用户有写的权限
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.153.132:9000</value>#master的ip
</property>
</configuration>9、修改/usr/hadoop-0.20.2/conf/hdfs-site.xml配置文件,内容如下:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>10、修改/usr/hadoop-0.20.2/conf/mapred-site.xml配置文件,内容如下:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>192.168.153.132:9001</value>
</property>
</configuration>11、修改ect/hosts配置文件,内容如下:
# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1 localhost#这一句不能少
192.168.153.132 ubuntu
192.168.153.131 ubuntu1
192.168.153.133 ubuntu212、修改/ect/profile配置文件,在末尾追加以下内容,并输入source/etc/profile使之生效:
export JAVA_HOME=/usr/java/jdk1.6.0_30
export JRE_HOME=/usr/java/jdk1.6.0_30/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$PATH
export HADOOP_HOME=/usr/hadoop-0.20.2
export PATH=$HADOOP_HOME/bin:$PATH
export PATH=$PATH:$HIVE_HOME/bin13、将/usr/hadoop-0.20.2拷贝到192.168.153.131和192.168.153.133对应的目录下。将/ect/profile和/etc/hosts也拷贝到132和133机器上。注意profile需要做生效操作,同样是使用scp命令,或者直接是虚拟机的clone操作,这样比较方便。
三、启动/停止hadoop
1、通过shell脚本启动hadoop。sh /usr/hadoop-0.20.2/bin/start-all.sh2、停止hadoop
sh /usr/hadoop-0.20.2/bin/stop-all.sh
四、初始配置
1、格式化HDFS文件系统。进入/jz/hadoop-0.20.2/bin目录。执行:
hadoop namenode –format2、在/usr/hadoop-0.20.2/bin目录下,执行:
hadoop fs -ls /
如果控制台返回结果,表示初始化成功。可以向里面录入数据。
3、通过WEB查看hadoop
查看集群状态 http://192.168.153.132:50070/dfshealth.jsp 查看JOB状态 http://192.168.153.132:50030/jobtracker.jsp
五、注意事项
1、hadoop的安装千万计的修改/etc/hosts文件。修改之后最好是重启机器。
2、master和slaves这2个配置文件可以不拷贝到ubuntu1和ubuntu2机器上,只在master上保存即可。
3、通过web查看hadoop的时候,如果使用IE一些图形工具显示不出来,建议使用opera或是chrome。
4、如果不能启动或出现什么错去可以查看安装hadoop目录下的log文件,上面有详细的异常信息。
附上成功运行的截图