实验内容与完成情况:
运行命令 sudo apt-get install ssh openssh-server
运行命令 ssh-****** -t rsa -P ""
复制SSH公钥到/home/user/.ssh目录下,并重命名为authorized_keys(把这个认证文件拷贝到其他的salve机上) 运行命令 cat ~/.ssh/id_rsa.pub >>./.ssh/authorized_key
运行命令 ssh localhost 登录 exit 退出
输入命令ifconfig
打开winscp输入IP地址和username、password
修改全局配置文件,作用于所有用户运行 打开profile文件,输入环境变量 运行命令sudo gedit /etc/profile 在文件末追加以下内容并保存 export JAVA_HOME=/home/salve/soft/jdk1.8.0_92 export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=.:${JAVA_HOME}/bin:$PATH 运行命令sudo source /etc/profile 保存更改 运行命令java –version查看是否配置成功
修改全局配置文件,作用于所有用户运行 打开profile文件,输入环境变量 运行命令sudo gedit /etc/profile 在文件末追加以下内容并保存 export HADOOP_HOME=/home/salve/soft/hadoop-2.7.2 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HAME/sbin 运行命令sudo source /etc/profile 保存更改 运行命令hadoop version查看是否配置成功
创建namenode目录和datanode目录 打开文件~/soft/Hadoop-2.7.2/etc/hdfs-site.xml输入配置项
打开文件~/soft/Hadoop-2.7.2/etc/core-site.xml输入配置项
打开文件~/soft/Hadoop-2.7.2/etc/mapred-site.xml.template输入配置项
打开文件~/soft/Hadoop-2.7.2/etc/Hadoop-env.s输入配置项
运行命令cd ~/soft/Hadoop-2.7.2进入hadoop目录 运行命令 ./bin/hdfs namenode –format
运行命令./sbin/start-dfs.sh 运行命令jps查看namenode、datanode是否启动
在浏览器中查看192.168.149.130:50070
先去网上找一篇英语作文,保存在~/soft/words文件中 运行命令bin/hdfs dfs -mkdir /test,在hdfs的根目录下建立一个test目录 运行命令bin/hdfs dfs -put ~/soft /words /test/把本地文件上传到test目录中 运行命令bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /test/words /test/out执行wordcount例子 运行命令bin/hadoop fs -cat /test/out/part-r-00000查看结果
|
出现的问题:
|
解决方案(列出遇到的问题和解决办法,列出没有解决的问题):
|