一.环境准备
阿里云ECS(Centos7).已预装JDK8
Hadoop安装包 hadoop-2.7.7.tar.gz
二. 安装步骤
1.确认JDK环境的安装位置
命令 echo $JAVA_HOME
2.解压hadoop-2.7.7.tar.gz 文件夹到指定目录(目录可以自己定义)
命令 tar -zxvf hadoop-2.7.7.tar.gz -C /opt/module/ (我这里是解压到 /opt/module/目录下)
3.配置运行环境
文件1:hadoop-env.sh
配置Hadoop对JDK依赖的环境
输入echo JAVA_HOME=(JDK环境的安装位置,根据步骤1可以确定)
文件2:core-site.xml
配置文件系统柜HDFS的主机名称和端口号(这里使用本机的名称,可以通过hostname查看主机名称.端口号随意指定,但是要在阿里云控制台开启对外端口
<property>
<name>fs.default.name</name><value>hdfs://localhost:8020</value></property>
配置文件系统namenode节点文件存放的目录
<property>
<name>dfs.name.dir</name>//hadoop临时目录用来存放临时文件,如果不设置,则该文件会在linux系统重启后消失
<value>/hadoop/name</value> //该目录必须预先手工创建不能删除
</property>
配置文件系统柜datanode节点文件存放目录
<property>
<name>dfs.data.dir</name> //hadoop临时目录用来存放namenode文件
<value>/hadoop/data</value> //该目录必须预先手工创建不能删除
</property>
配置文件系统临时文件的存放目录
<property>
<name>hadoop.tmp.dir</name> //hadoop临时目录用来存放datanode文件
<value>/hadoop/tmp</value> //该目录必须预先手工创建不能删除
</property>
文件2:hdfs-site.xml
配置dfs的副本数量,伪分布式设置为1即可
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
4.配置完成后需要 format格式化文件系统(注意.第一次执行即可,不要重复执行,重复执行会出问题,https://blog.csdn.net/weixin_38847462/article/details/77879459)
进入bin 目录下./hadoop namenode -format
出现以下提示表示格式化成功
5.启动hdfs
进入sbin目录下.启动脚本./start-dfs.sh
启动完成后 输入 jps可以查看是否启动成功(注意,如果这里没有配置ssh免密登录,name就会要你输入密码,很烦)
看到以下就是启动成功了
注意:如果没有这几个进程,就是启动失败,可以查看日志信息,日志信息在启动时可以查看,将out变为log即可
http://localhost:50070
6.配置Hadoop 的bin目录到系统的环境变量中,这样使用shell就比较方便
/opt/module/hadoop-2.7.7/bin
vim ~/.bash_profile
source ~/.bash_profile
使用echo $HADOOP_HOME确认是否配置成功
7.hadoop常用的命令