新手学习集群完全分布式安装hadoop,遇到一个问题:start-dfs.sh后,主节点namenode显示正常,另一个datanode也正常,但是有一个datanode节点启动几秒后就down掉了(即jps后无datanode显示),查看日志文件报错如下,求解:
2 个解决方案
#1
#2
问题解决:
共享目录的问题。问题出在每个datanode节点应该有自己的datanode,而现在所有datanode都共享了一个目录data,因为/export是共享的,问题出在每个datanode节点应该有自己的data目录,只要将data目录放在/export之外就可以了,比如为每个节点建立/hadoop_data目录,并赋予用户读写权限。
共享目录的问题。问题出在每个datanode节点应该有自己的datanode,而现在所有datanode都共享了一个目录data,因为/export是共享的,问题出在每个datanode节点应该有自己的data目录,只要将data目录放在/export之外就可以了,比如为每个节点建立/hadoop_data目录,并赋予用户读写权限。
#1
#2
问题解决:
共享目录的问题。问题出在每个datanode节点应该有自己的datanode,而现在所有datanode都共享了一个目录data,因为/export是共享的,问题出在每个datanode节点应该有自己的data目录,只要将data目录放在/export之外就可以了,比如为每个节点建立/hadoop_data目录,并赋予用户读写权限。
共享目录的问题。问题出在每个datanode节点应该有自己的datanode,而现在所有datanode都共享了一个目录data,因为/export是共享的,问题出在每个datanode节点应该有自己的data目录,只要将data目录放在/export之外就可以了,比如为每个节点建立/hadoop_data目录,并赋予用户读写权限。