
1、初始化集群
要启动Hadoop集群,需要启动HDFS和YARN两个集群
注意:首次启动HDFS时,必须对其进行格式化操作。本质上是一些清理和准备工作, 因为此时的HDFS在物理上还是不存在的
命令:hdfs namenode -format或hadoop namenode -format
2、启动集群
1)单个节点逐个启动
在主节点上使用以下命令启动HDFS NameNode:
Hadoop-daemon.sh start namenode
在每个从节点上使用以下命令启动HDFS DataNode:
Hadoop-daemon.sh start datanode
在主节点上使用以下命令启动YARN ResourceManager:
Yarn-daemon.sh start resourcemanager
在每个从节点上使用以下命令启动YARN nodemanager:
Yarn-daemon.sh start nodemanager
以上脚本位于hadoop-2.7.6/sbin目录下,若想停止只需把命令中start改为stop 即可
2)脚本一键启动
如果配置了etc/hadoop/slaves和ssh免密登陆,则可以实用程序脚本启动所有Hadoop两个集群的相关进程,在主节点上所设定的机器上执行
hdfs:hadoop-2.7.6/sbin/(在sbin目录下执行)start-dfs.sh
yarn:hadoop-2.7.6/sbin/(在sbin目录下执行)start-yarn.sh
3、停止集群
stop-dfs.sh、stop-yarn.sh或者执行stop-all.sh停止全部集群