
注:我所有的操作均通过Xshell 5远程连接Ubuntu进行实施
第一步:启动hadoop,利用jps查看hadoop是否已经启动,如果没有启动用start-dfs.sh脚本启动(hadoop2.X中不建议使用start-all.sh)
第二步:利用jps检查是否启动成功,看到DataNode, NameNode, SecondaryNode就表示成功启动了
第三步:在本机上建立一个测试用的test.txt文档
第四步:在HDFS上新建一个input目录
第五步:将创建的test.txt文档上传到input目录中,并用fs -ls查看
第六步:运行wordcount
第七步:运行过程
第八步:查看运行结果
至此演示成功,可以进入下一步安装Hive。