文件名称:hadoop安装过程中的问题
文件大小:302KB
文件格式:DOCX
更新时间:2020-10-04 18:53:05
hadoop
1.slaves用户名一致,即需要相同的用户。(这是Hadoop的基础) 2.必须ssh无密码登录 3./etc/host 里配置 master和slaves 4.修改/etc/hostname 主机名 5、/etc/profile的java和Hadoop配置路径 6.hadoop namenode format 7./hadoop/etc/slaves这个文件里必须把所有的slaves的主机名写进去。 8.mast的/etc/hosts slave1的/etc/hosts slave2 的/etc/hosts (localhost: 127.0.0.1可以去掉,只写主机名对应的IP地址)如下 1)以下是master的hosts 2)以下是slave1的hosts 3)以下是slave2的hosts Slave启动不起来解决过程如下: 1.环境变了,hadoop没变: Hadoop/etc/hadoop/slaves 的IP地址要变。 5个重要的配置文件逐个检查,IP地址需要变 2.配置文件确认无错误,看日志: 从logs日志中寻找slave的namenode为什么没有起来。 3.最后发现是hdfs中存在上次的数据,删掉即可。: 安装ssh和解决jdk找不到path问腿