Hadoop集群配置往往按照网上教程就可以"配置成功",但是你自己在操作的时候会有很多奇奇怪怪的问题出现,
我在这里整理了一下常见的问题与处理方法:
1.配置/etc/hosts
这个文件至关重要,他决定了各个节点是否能够成功通信,有两个地方要注意
1.127.0.0.1 localhost 要配置在其他的地址之后
2.127.0.0.1 hostname 配置要删掉,因为有对应的配置,比如192.168.0.150 service1
常见问题:节点间无法通信,datanode无法和namenode连接;node名称为localhost
2.关闭防火墙
sudo ufw stop
查看 "ufw status"
3.关闭iptables
sudo apt-get remove iptables 或者
iptables -P INPUT ACCEPT
iptables -P OUTPUT ACCEPT
4.退出safemode模式
hadoop dfsadmin -safemode leave