安装好jdk 减压hadoop压缩包
cd /home/hadoop/hadoop-2.7.3/etc/hadoop
vi hadoop-env.sh
文件末尾处添加 jdk环境变量
export JAVA_HOME=/home/hadoop/bd/jdk1.8.0_144
vi core-site.xml
configuration中添加以下内容
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.153.111:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/bd/hadoop-2.7.3/tmp</value>
</property>
vi hdfs-site.xml
configuration中添加以下内容
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions.enabled</name>
<value>false</value>
</property>
vi mapred-sit.xml(将mapred-sit.xml.template重命令)
configuration中添加以下内容
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
vi yarn-site.xml
configuration中添加以下内容
<!-- 指定YARN的老大(ResourceManager)的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>192.168.153.118</value>
</property>
<!-- reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
格式化namenode
./hdfs namenode –format
跟新失败 删除配置的tmp文件重新跟新