实验一:熟悉常用的Linux操作和Hadoop操作
一、实验目的
Hadoop运行在Linux系统上,因此,需要学习实践一些常用的Linux命令。本实验旨在熟悉常用的Linux操作和Hadoop操作,为顺利开展后续其他实验奠定基础。
二、实验平台
l 操作系统:Linux;
l Hadoop版本:2.7.1。
三、实验步骤
(一)熟悉常用的Linux操作
l cd命令:切换目录
(1) 切换到目录“/usr/local”
(2) 切换到当前目录的上一级目录
(3) 切换到当前登录Linux系统的用户的自己的主文件夹
l ls命令:查看文件与目录
(4)查看目录“/usr”下的所有文件和目录
l mkdir命令:新建目录
(5)进入“/tmp”目录,创建一个名为“a”的目录,并查看“/tmp”目录下已经存在哪些目录
(6)进入“/tmp”目录,创建目录“a1/a2/a3/a4”
l rmdir命令:删除空的目录
(7)将上面创建的目录a(在“/tmp”目录下面)删除
(8)删除上面创建的目录“a1/a2/a3/a4” (在“/tmp”目录下面),然后查看“/tmp”目录下面存在哪些目录
l cp命令:复制文件或目录
(9)将当前用户的主文件夹下的文件.bashrc复制到目录“/usr”下,并重命名为bashrc1
(10)在目录“/tmp”下新建目录test,再把这个目录复制到“/usr”目录下
l mv命令:移动文件与目录,或更名
(11)将“/usr”目录下的文件bashrc1移动到“/usr/test”目录下
(12)将“/usr”目录下的test目录重命名为test2
l rm命令:移除文件或目录
(13)将“/usr/test2”目录下的bashrc1文件删除
(14)将“/usr”目录下的test2目录删除
l cat命令:查看文件内容
(15)查看当前用户主文件夹下的.bashrc文件内容 xQW
l tac命令:反向查看文件内容
(16)反向查看当前用户主文件夹下的.bashrc文件的内容
l more命令:一页一页翻动查看
(17)翻页查看当前用户主文件夹下的.bashrc文件的内容
l head命令:取出前面几行
(18)查看当前用户主文件夹下.bashrc文件内容前20行
(19)查看当前用户主文件夹下.bashrc文件内容,后面50行不显示,只显示前面几行
l tail命令:取出后面几行
(20)查看当前用户主文件夹下.bashrc文件内容最后20行
(21)查看当前用户主文件夹下.bashrc文件内容,并且只列出50行以后的数据
l touch命令:修改文件时间或创建新文件
(22)在“/tmp”目录下创建一个空文件hello,并查看文件时间
(23)修改hello文件,将文件时间整为5天前
l chown命令:修改文件所有者权限
(24)将hello文件所有者改为root帐号,并查看属性
l find命令:文件查找
(25)找出主文件夹下文件名为.bashrc的文件
l tar命令:压缩命令
(26)在根目录“/”下新建文件夹test,然后在根目录“/”下打包成test.tar.gz
(27)把上面的test.tar.gz压缩包,解压缩到“/tmp”目录
l grep命令:查找字符串
(28)从“~/.bashrc”文件中查找字符串\'examples\'
l 配置环境变量
(29)请在“~/.bashrc”中设置,配置Java环境变量
(30)查看JAVA_HOME变量的值
(二)熟悉常用的Hadoop操作
(31)使用hadoop用户登录Linux系统,启动Hadoop(Hadoop的安装目录为“/usr/local/hadoop”),为hadoop用户在HDFS中创建用户目录“/user/hadoop”
./sbin/start -all.sh
(32)接着在HDFS的目录“/user/hadoop”下,创建test文件夹,并查看文件列表
Hadoop fs -mkdir /test
(33)将Linux系统本地的“~/.bashrc”文件上传到HDFS的test文件夹中,并查看test
Hadoop fs -put ~/.bashrc /test
Hadoop fs -ls /test
(34)将HDFS文件夹test复制到Linux系统本地文件系统的“/usr/local/hadoop”目录下
Hadoop fs -get test /usr/local
四、实验报告
实验报告 |
||||
题目: |
实验一 |
姓名 |
郭子鹏 |
日期:2020年6月 |
实验环境: l 操作系统:Linux; l Hadoop版本:2.7.1。 |
||||
实验内容与完成情况:操作截图都在上方。 |
||||
出现的问题:1.经常遇到没有操作权限的时候; 2.对一些操作不甚了解; |
||||
解决方案(列出遇到的问题和解决办法,列出没有解决的问题):
|
实验二:熟悉常用的HDFS操作
一、实验目的
l 理解HDFS在Hadoop体系结构中的角色;
l 熟练使用HDFS操作常用的Shell命令;
二、实验平台
l 操作系统:Linux(建议Ubuntu16.04);
l Hadoop版本:2.7.1;
l JDK版本:1.7或以上版本;
l Java IDE:Eclipse。
三、实验步骤
(一)编程实现以下功能,并利用Hadoop提供的Shell命令完成相同任务:
(1) 向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,则由用户来指定是追加到原有文件末尾还是覆盖原有的文件;
Shell命令实现:
if $(hadoop fs -test -e text.txt);
then $(hadoop fs -appendToFile local.txt text.txt);
else $(hadoop fs -copyFromLocal -f local.txt text.txt);
fi
编程实现:
package cn.edu.zucc.hdfs;
import java.io.FileInputStream;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
public class CopyFromLocalFile {
/**
* 判断路径是否存在
*/
public static
boolean test(Configuration conf, String path) {
try (FileSystem fs =
FileSystem.get(conf)) {
return fs.exists(new Path(path));
} catch (IOException e) {
e.printStackTrace();
return false;
}
}
/**
* 复制文件到指定路径 若路径已存在,则进行覆盖
*/
public static
void copyFromLocalFile(Configuration conf,
String localFilePath, String remoteFilePath)
{
Path localPath = new Path(localFilePath);
Path remotePath = new Path(remoteFilePath);
try (FileSystem fs =
FileSystem.get(conf)) {
/*
fs.copyFromLocalFile 第一个参数表示是否删除源文件,第二个参数表示是否覆盖 */
fs.copyFromLocalFile(false, true, localPath, remotePath);
} catch (IOException e) {
e.printStackTrace();
}
}
/**
* 追加文件内容
*/
public static
void appendToFile(Configuration conf, String localFilePath,
String remoteFilePath) {
Path remotePath = new Path(remoteFilePath);
try (FileSystem fs =
FileSystem.get(conf);
FileInputStream in
= new FileInputStream(localFilePath);) {
FSDataOutputStream out = fs.append(remotePath);
byte[] data = new byte[1024];
int read = -1;
while ((read = in.read(data)) > 0) {
out.write(data, 0, read);
}
out.close();
} catch (IOException e) {
e.printStackTrace();
}
}
/**
* 主函数
*/
public static
void main(String[] args) {
Configuration conf = new Configuration();
conf.set("fs.defaultFS", "hdfs://localhost:9000");
String
localFilePath = "/usr/local/hadoop/text.txt"; // 本地路径
String remoteFilePath = "/user/tiny/text.txt"; // HDFS路径
// String choice = "append"; // 若文件存在则追加到文件末尾
String choice = "overwrite"; // 若文件存在则覆盖
try {
/* 判断文件是否存在 */
boolean fileExists = false;
if (CopyFromLocalFile.test(conf, remoteFilePath)) {
fileExists = true;
System.out.println(remoteFilePath + " 已存在.");
} else {
System.out.println(remoteFilePath + " 不存在.");
}
/* 进行处理 */
if (!fileExists) { // 文件不存在,则上传
CopyFromLocalFile.copyFromLocalFile(conf, localFilePath,
remoteFilePath);
System.out.println(localFilePath + " 已上传至 " + remoteFilePath);
} else if (choice.equals("overwrite")) { // 选择覆盖
CopyFromLocalFile.copyFromLocalFile(conf, localFilePath,
remoteFilePath);
System.out.println(localFilePath + " 已覆盖 " + remoteFilePath);
} else if (choice.equals("append")) { // 选择追加
CopyFromLocalFile.appendToFile(conf, localFilePath,
remoteFilePath);
System.out.println(localFilePath + " 已追加至 " + remoteFilePath);
}
} catch (Exception e) {
e.printStackTrace();
}
}
}
(2) 从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名;
Shell命令实现:
if $(hadoop fs -test -e /usr/local/hadoop/text.txt);
then $(hadoop fs -copyToLocal text.txt ./text.txt);
else $(hadoop fs -copyToLocal text.txt ./text2.txt);
fi
编程实现:
package cn.edu.zucc.hdfs;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import org.apache.hadoop.fs.FileSystem;
import java.io.*;
public class CopyToLocal {
/**
* 下载文件到本地 判断本地路径是否已存在,若已存在,则自动进行重命名
*/
public static
void copyToLocal(Configuration conf, String remoteFilePath,
String localFilePath) {
Path remotePath = new Path(remoteFilePath);
try (FileSystem fs = FileSystem.get(conf)) {
File f = new File(localFilePath);
/* 如果文件名存在,自动重命名(在文件名后面加上 _0, _1 ...) */
if (f.exists()) {
System.out.println(localFilePath + " 已存在.");
Integer i = Integer.valueOf(0);
while (true) {
f = new File(localFilePath + "_" + i.toString());
if (!f.exists()) {
localFilePath =
localFilePath + "_" + i.toString();
break;
} else {
i++;
continue;
}
}
System.out.println("将重新命名为: " + localFilePath);
}
// 下载文件到本地
(3) 将HDFS中指定文件的内容输出到终端中;
Shell 脚本实现:
hadoop fs -cat /Test/text.txt
编程实现:
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import org.apache.hadoop.fs.FileSystem;
import java.io.*;
public class Cat {
/**
* 读取文件内容
*/
public static void cat(Configuration conf, String remoteFilePath) {
Path remotePath = new Path(remoteFilePath);
try (FileSystem fs = FileSystem.get(conf);
FSDataInputStream in = fs.open(remotePath);
BufferedReader d = new BufferedReader(new InputStreamReader(in));) {
String line;
while ((line = d.readLine()) != null) {
System.out.println(line);
}
} catch (IOException e) {
e.printStackTrace();
}
}
/**
* 主函数
*/
public static void main(String[] args) {
Configuration conf = new Configuration();
conf.set("fs.defaultFS", "hdfs://localhost:9000");
String remoteFilePath = "/user/tiny/input/text.txt"; // HDFS路径
try {
System.out.println("读取文件: " + remoteFilePath);
Cat.cat(conf, remoteFilePath);
System.out.println("\n读取完成");
} catch (Exception e) {
e.printStackTrace();
}
}
}
(4) 显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息;
Shell 命令实现:
hadoop fs -ls -h /Test/text.txt
编程实现:
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import org.apache.hadoop.fs.FileSystem;
import java.io.*;
import java.text.SimpleDateFormat;
public class List {
/**
* 显示指定文件的信息
*/
public static
void ls(Configuration conf, String remoteFilePath)
{
try (FileSystem fs = FileSystem.get(conf)) {
Path remotePath = new Path(remoteFilePath);
FileStatus[] fileStatuses = fs.listStatus(remotePath);
for (FileStatus s : fileStatuses) {
System.out.println("路径: " + s.getPath().toString());
System.out.println("权限: " + s.getPermission().toString());
System.out.println("大小: " + s.getLen());
/* 返回的是时间戳,转化为时间日期格式 */
long timeStamp = s.getModificationTime();
SimpleDateFormat
format = new SimpleDateFormat(
"yyyy-MM-dd HH:mm:ss");
String date = format.format(timeStamp);
System.out.println("时间: " + date);
}
} catch (IOException e) {
e.printStackTrace();
}
}
/**
* 主函数
*/
public static
void main(String[] args) {
Configuration conf = new Configuration();
conf.set("fs.defaultFS", "hdfs://localhost:9000");
String
remoteFilePath = "/user/tiny/text.txt"; // HDFS路径
try {
System.out.println("读取文件信息: " + remoteFilePath);
List.ls(conf, remoteFilePath);
System.out.println("\n读取完成");
} catch (Exception e) {
e.printStackTrace();
}
}
}
(5) 给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;
Shell命令实现:
hadoop fs -ls -R -h /Test
编程实现:
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import org.apache.hadoop.fs.FileSystem;
import java.io.*;
import java.text.SimpleDateFormat;
public class ListDir {
/**
* 显示指定文件夹下所有文件的信息(递归)
*/
public static
void lsDir(Configuration conf, String remoteDir) {
try (FileSystem fs = FileSystem.get(conf)) {
Path dirPath = new Path(remoteDir);
/* 递归获取目录下的所有文件 */
RemoteIterator<LocatedFileStatus>
remoteIterator = fs.listFiles(
dirPath, true);
/* 输出每个文件的信息 */
while (remoteIterator.hasNext()) {
FileStatus s = remoteIterator.next();
System.out.println("路径: " + s.getPath().toString());
System.out.println("权限: " + s.getPermission().toString());
System.out.println("大小: " + s.getLen());
/* 返回的是时间戳,转化为时间日期格式 */
Long timeStamp = s.getModificationTime();
SimpleDateFormat
format = new SimpleDateFormat(
"yyyy-MM-dd HH:mm:ss");
String date = format.format(timeStamp);
System.out.println("时间: " + date);
System.out.println();
}
} catch (IOException e) {
e.printStackTrace();
}
}
/**
* 主函数
*/
public static
void main(String[] args) {
Configuration conf = new Configuration();
conf.set("fs.defaultFS", "hdfs://localhost:9000");
String remoteDir = "/user/tiny"; // HDFS路径
try {
System.out.println("(递归)读取目录下所有文件的信息: " + remoteDir);
ListDir.lsDir(conf, remoteDir);
System.out.println("读取完成");
} catch (Exception e) {
e.printStackTrace();
}
}
}
(6) 提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录;
Shell命令实现:
#!/bin/bash
if $(hadoop fs -test -d /Test/test1);
then $(hadoop fs -touchz /Test/test1/text1.txt);
else $(hadoop fs -mkdir -p /Test/test1 && hdfs dfs -touchz /Test/test1/text1.txt);
fi
编程实现:
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import java.io.*;
public class RemoveOrMake {
/**
* 判断路径是否存在
*/
public static
boolean test(Configuration conf, String path) {
try (FileSystem fs = FileSystem.get(conf)) {
return fs.exists(new Path(path));
} catch (IOException e) {
e.printStackTrace();
return false;
}
}
/**
* 创建目录
*/
public static
boolean mkdir(Configuration conf, String remoteDir) {
try (FileSystem fs = FileSystem.get(conf)) {
Path dirPath = new Path(remoteDir);
return fs.mkdirs(dirPath);
} catch (IOException e) {
e.printStackTrace();
return false;
}
}
/**
* 创建文件
*/
public static
void touchz(Configuration conf, String remoteFilePath)
{
Path remotePath = new Path(remoteFilePath);
try (FileSystem fs = FileSystem.get(conf)) {
FSDataOutputStream outputStream = fs.create(remotePath);
outputStream.close();
} catch (IOException e) {
e.printStackTrace();
}
}
/**
* 删除文件
*/
public static
boolean rm(Configuration conf, String remoteFilePath) {
Path remotePath = new Path(remoteFilePath);
try (FileSystem fs = FileSystem.get(conf)) {
return fs.delete(remotePath, false);
} catch (IOException e) {
e.printStackTrace();
return false;
}
}
/**
* 主函数
*/
public static
void main(String[] args) {
Configuration conf = new Configuration();
conf.set("fs.defaultFS", "hdfs://localhost:9000");
String
remoteFilePath = "/user/tiny/input/text.txt"; // HDFS路径
String remoteDir = "/user/tiny/input"; // HDFS路径对应的目录
try {
/* 判断路径是否存在,存在则删除,否则进行创建 */
if (RemoveOrMake.test(conf, remoteFilePath)) {
RemoveOrMake.rm(conf, remoteFilePath); // 删除
System.out.println("删除文件: " + remoteFilePath);
} else {
if (!RemoveOrMake.test(conf, remoteDir)) { // 若目录不存在,则进行创建
RemoveOrMake.mkdir(conf, remoteDir);
System.out.println("创建文件夹: " + remoteDir);
}
RemoveOrMake.touchz(conf, remoteFilePath);
System.out.println("创建文件: " + remoteFilePath);
}
} catch (Exception e) {
e.printStackTrace();
}
}
}
(7) 提供一个HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在,则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录;
Shell命令实现:
hadoop fs -rm -R /Test/test1
编程实现:
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import java.io.*;
public class RemoveOrMake {
/**
* 判断路径是否存在
*/
public static
boolean test(Configuration conf, String path) {
try (FileSystem fs = FileSystem.get(conf)) {
return fs.exists(new Path(path));
} catch (IOException e) {
e.printStackTrace();
return false;
}
}
/**
* 创建目录
*/
public static
boolean mkdir(Configuration conf, String remoteDir) {
try (FileSystem fs = FileSystem.get(conf)) {
Path dirPath = new Path(remoteDir);
return fs.mkdirs(dirPath);
} catch (IOException e) {
e.printStackTrace();
return false;
}
}
/**
* 创建文件
*/
public static void
touchz(Configuration conf, String remoteFilePath)
{
Path remotePath = new Path(remoteFilePath);
try (FileSystem fs = FileSystem.get(conf)) {
FSDataOutputStream outputStream = fs.create(remotePath);
outputStream.close();
} catch (IOException e) {
e.printStackTrace();
}
}
/**
* 删除文件
*/
public static
boolean rm(Configuration conf, String remoteFilePath)
{
Path remotePath = new Path(remoteFilePath);
try (FileSystem fs = FileSystem.get(conf)) {
return fs.delete(remotePath, false);
} catch (IOException e) {
e.printStackTrace();
return false;
}
}
/**
* 主函数
*/
public static
void main(String[] args) {
Configuration conf = new Configuration();
conf.set("fs.defaultFS", "hdfs://localhost:9000");
String
remoteFilePath = "/user/hadoop/dir3/test.txt"; // HDFS路径
String remoteDir = "/user/hadoop/dir3"; // HDFS路径对应的目录
try {
/* 判断路径是否存在,存在则删除,否则进行创建 */
if (RemoveOrMake.test(conf, remoteFilePath)) {
RemoveOrMake.rm(conf, remoteFilePath); // 删除
System.out.println("删除文件: " + remoteFilePath);
} else {
if (!RemoveOrMake.test(conf, remoteDir)) { // 若目录不存在,则进行创建
RemoveOrMake.mkdir(conf, remoteDir);
System.out.println("创建文件夹: " + remoteDir);
}
RemoveOrMake.touchz(conf, remoteFilePath);
System.out.println("创建文件: " + remoteFilePath);
}
} catch (Exception e) {
e.printStackTrace();
}
}
}
(8) 向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;
追加到文件结尾:
hadoop fs -appendToFile local.txt /Test/text.txt
追加到文件开头:
hadoop fs -get /Test/text.txt
cat /Test/text.txt >> local.txt
hadoop fs -copyFromLocal -f text.txt /Test/text.txt
代码实现:
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import org.apache.hadoop.fs.FileSystem;
import java.io.*;
public class AppendToFile {
/**
* 判断路径是否存在
*/
public static
boolean test(Configuration conf, String path) {
try (FileSystem fs = FileSystem.get(conf)) {
return fs.exists(new Path(path));
} catch (IOException e) {
e.printStackTrace();
return false;
}
}
/**
* 追加文本内容
*/
public static
void appendContentToFile(Configuration conf, String content,
String remoteFilePath) {
try (FileSystem fs = FileSystem.get(conf)) {
Path remotePath = new Path(remoteFilePath);
/* 创建一个文件输出流,输出的内容将追加到文件末尾 */
FSDataOutputStream
out = fs.append(remotePath);
out.write(content.getBytes());
out.close();
} catch (IOException e) {
e.printStackTrace();
}
}
/**
* 追加文件内容
*/
public static
void appendToFile(Configuration conf, String localFilePath,
String remoteFilePath) {
Path remotePath = new Path(remoteFilePath);
try (FileSystem fs = FileSystem.get(conf);
FileInputStream in = new FileInputStream(localFilePath);) {
FSDataOutputStream out =
fs.append(remotePath);
byte[] data = new byte[1024];
int read = -1;
while ((read = in.read(data)) > 0) {
out.write(data, 0, read);
}
out.close();
} catch (IOException e) {
e.printStackTrace();
}
}
/**
* 移动文件到本地 移动后,删除源文件
*/
public static
void moveToLocalFile(Configuration conf,
String remoteFilePath, String localFilePath) {
try (FileSystem fs = FileSystem.get(conf)) {
Path remotePath = new Path(remoteFilePath);
Path localPath = new Path(localFilePath);
fs.moveToLocalFile(remotePath, localPath);
} catch (IOException e) {
e.printStackTrace();
}
}
/**
* 创建文件
*/
public static
void touchz(Configuration conf, String remoteFilePath) {
try (FileSystem fs = FileSystem.get(conf)) {
Path remotePath = new Path(remoteFilePath);
FSDataOutputStream
outputStream = fs.create(remotePath);
outputStream.close();
} catch (IOException e) {
e.printStackTrace();
}
}
/**
* 主函数
*/
public static
void main(String[] args) {
Configuration conf = new Configuration();
conf.set("fs.defaultFS", "hdfs://localhost:9000");
String
remoteFilePath = "/user/tiny/text.txt"; // HDFS文件
String content = "新追加的内容\n";
String choice = "after"; // 追加到文件末尾
// String choice = "before"; // 追加到文件开头
try {
/* 判断文件是否存在 */
if (!AppendToFile.test(conf, remoteFilePath)) {
System.out.println("文件不存在: " + remoteFilePath);
} else {
if (choice.equals("after")) { // 追加在文件末尾
AppendToFile.appendContentToFile(conf, content,
remoteFilePath);
System.out.println("已追加内容到文件末尾" + remoteFilePath);
} else if (choice.equals("before")) { // 追加到文件开头
/* 没有相应的api可以直接操作,因此先把文件移动到本地,创建一个新的HDFS,再按顺序追加内容 */
String localTmpPath = "/user/hadoop/tmp.txt";
AppendToFile.moveToLocalFile(conf, remoteFilePath,
localTmpPath); // 移动到本地
AppendToFile.touchz(conf, remoteFilePath); // 创建一个新文件
AppendToFile.appendContentToFile(conf, content,
remoteFilePath); // 先写入新内容
AppendToFile.appendToFile(conf, localTmpPath,
remoteFilePath); // 再写入原来内容
System.out.println("已追加内容到文件开头: " + remoteFilePath);
}
}
} catch (Exception e) {
e.printStackTrace();
}
}
}
(9) 删除HDFS中指定的文件;
Shell命令实现:
hadoop fs -rm /Test/test1/text1.txt
编程实现:
package test.hdfs;
import java.io.IOException;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
public class DeletedFile {
public static
void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
//配置类
Configuration conf=new Configuration();
//模拟路径;
String url="hdfs://localhost:9000/user/kouch/out6";
//文件系统对象
FileSystem fs=FileSystem.get(URI.create(url), conf);
//注:配置怕段文件是否存在使用更有效;
if(IsExsit.isExsit(fs, url)) {
//System.out.println("kaishi删除");
if(fs.delete(new Path(url), true)) {//true:文件夹下所有文件;false:如果此文件存在其他文件就不删除
System.out.println("删除"+url);
}
//System.out.println("jieshu删除");
}else {
System.out.println(url+"不存在");
}
}
}
(10) 在HDFS中,将文件从源路径移动到目的路径。
Shell命令实现:
hadoop fs -mv t
编程实现:
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import org.apache.hadoop.fs.FileSystem;
import java.io.*;
public class MoveFile {
/**
* 移动文件
*/
public static
boolean mv(Configuration conf, String remoteFilePath,
String remoteToFilePath) {
try (FileSystem fs = FileSystem.get(conf)) {
Path srcPath = new Path(remoteFilePath);
Path dstPath = new Path(remoteToFilePath);
return fs.rename(srcPath, dstPath);
} catch (IOException e) {
e.printStackTrace();
return false;
}
}
/**
* 主函数
*/
public static
void main(String[] args) {
Configuration conf = new Configuration();
conf.set("fs.defaultFS", "hdfs://localhost:9000");
String
remoteFilePath = "hdfs:///user/tiny/text.txt"; // 源文件HDFS路径
String remoteToFilePath = "hdfs:///user/tiny/input"; // 目的HDFS路径
try {
if (MoveFile.mv(conf, remoteFilePath, remoteToFilePath)) {
System.out.println("将文件 " + remoteFilePath + " 移动到 "
+ remoteToFilePath);
} else {
System.out.println("操作失败(源文件不存在或移动失败)");
}
} catch (Exception e) {
e.printStackTrace();
}
}
}
四、 实验报告
实验报告 |
||||
题目: |
实验二 |
姓名 |
郭子鹏 |
日期 |
实验环境: l 操作系统:Linux; l Hadoop版本:3.2.1; l JDK版本:1.7; l Java IDE:Eclipse。
|
||||
实验内容与完成情况:如上 |
||||
出现的问题:常有不熟悉的操作和代码经常出现小bug |
||||
解决方案(列出遇到的问题和解决办法,列出没有解决的问题):在百度上寻找前人的解决办法。 |
实验三:熟悉常用的HBase操作
一、实验目的
l 理解HBase在Hadoop体系结构中的角色;
l 熟练使用HBase操作常用的Shell命令;
二、实验平台
l 操作系统:Linux(建议Ubuntu16.04);
l Hadoop版本:2.7.1;
l HBase版本:1.1.5;
l JDK版本:1.7或以上版本;
l Java IDE:Eclipse。
三、实验步骤
(一)编程实现以下指定功能,并用Hadoop提供的HBase Shell命令完成相同任务:
(1) 列出HBase所有的表的相关信息,例如表名;
Shell命令实现:
list
代码实现:
public static void First() throws IOException{
init();
HTableDescriptor
hTableDescriptor[]=admin.listTables();
for (HTableDescriptor s:hTableDescriptor ){
System.out.println(s.getNameAsString());
}
close();
}
(2) 在终端打印出指定的表的所有记录数据;
Shell命令实现:
scan \'s1\'
代码实现:
public static void Second(String tablename) throws IOException{
init();
Table table=connection.getTable(TableName.valueOf(tablename));
Scan scan=new Scan();
ResultScanner
res=table.getScanner(scan);
for (Result result:res){
showCell(result);
}
}
(3) 向已经创建好的表添加和删除指定的列族或列;
Shell命令实现:
put \'s2\',\'hepu\',\'score:english\',\'90\'
delete \'s2\',\'hepu\',\'score:english\'
代码实现:
public static void Third(String tableName, String row,
String column,String c ,String val) throws IOException{
System.out.println("1、添加列;2、删除列");
int no=sc.nextInt();
if (no==1){
insertRow(tableName,row,column,c,val);
}else if (no==2){
deleteRow(tableName,row,column,c);
}
}
(4) 清空指定的表的所有记录数据;
Shell命令实现:
truncate \'s2\'
编程实现:
public static void Fourth(String tablename) throws IOException{
init();
HBaseAdmin admin1=new HBaseAdmin(configuration);
HTableDescriptor
ht=admin1.getTableDescriptor(Bytes.toBytes(tablename));
TableName tableName=TableName.valueOf(tablename);
admin.disableTable(tableName);
admin.deleteTable(tableName);
admin.createTable(ht);
close();
}
(5) 统计表的行数。
Shell命令实现:
count ‘Student’
编程实现:
public static void fift(String tablename) throws IOException{
init();
Table
table=connection.getTable(TableName.valueOf(tablename));
Scan scan=new Scan();
ResultScanner
scanner=table.getScanner(scan);
int n=0;
for (Result result=scanner.next();result!=null;result=scanner.next()){
n++;
}
System.out.println("行数一共有"+n+"行!");
scanner.close();
close();
}
四、实验报告
实验报告 |
||||
题目: |
实验三 |
姓名 |
郭子鹏 |
日期 |
实验环境: l 操作系统:Linux; l Hadoop版本:3.2.1; l HBase版本:1.1.5; l JDK版本:1.7; l Java IDE:Eclipse。
|
||||
实验内容与完成情况:如上所示 |
||||
出现的问题:写代码时总会忽视掉些细节 |
||||
解决方案(列出遇到的问题和解决办法,列出没有解决的问题):根据提示寻找bug并改正。 |
实验四:MapReduce/Spark初级编程实践
一、实验目的
l 通过实验掌握基本的MapReduce/Spark编程方法;
l 掌握用MapReduce/Spark解决一些常见的数据处理问题,包括数据去重、数据排序和数据挖掘等。
二、实验平台
l 操作系统:Linux(建议Ubuntu16.04)
l Hadoop版本:2.7.1
l Spark版本2.0以上
三、实验步骤(任选其一)
(一)编程实现文件合并和去重操作
对于两个输入文件,即文件A和文件B,请编写MapReduce程序,对两个文件进行合并,并剔除其中重复的内容,得到一个新的输出文件C。下面是输入文件和输出文件的一个样例供参考。
输入文件A的样例如下:
20170101 x 20170102 y 20170103 x 20170104 y 20170105 z 20170106 x |
输入文件B的样例如下:
20170101 y 20170102 y 20170103 x 20170104 z 20170105 y |
根据输入文件A和B合并得到的输出文件C的样例如下:
20170101 x 20170101 y 20170102 y 20170103 x 20170104 y 20170104 z 20170105 y 20170105 z 20170106 x |
(二)编写程序实现对输入文件的排序
现在有多个输入文件,每个文件中的每行内容均为一个整数。要求读取所有文件中的整数,进行升序排序后,输出到一个新的文件中,输出的数据格式为每行两个整数,第一个数字为第二个整数的排序位次,第二个整数为原待排列的整数。下面是输入文件和输出文件的一个样例供参考。
输入文件1的样例如下:
33 37 12 40 |
输入文件2的样例如下:
4 16 39 5 |
输入文件3的样例如下:
1 45 25 |
根据输入文件1、2和3得到的输出文件如下:
1 1 2 4 3 5 4 12 5 16 6 25 7 33 8 37 9 39 10 40 11 45 |
(三)对给定的表格进行信息挖掘
下面给出一个child-parent的表格,要求挖掘其中的父子辈关系,给出祖孙辈关系的表格。
输入文件内容如下:
child parent Steven Lucy Steven Jack Jone Lucy Jone Jack Lucy Mary Lucy Frank Jack Alice Jack Jesse David Alice David Jesse Philip David Philip Alma Mark David Mark Alma |
输出文件内容如下:
grandchild grandparent Steven Alice Steven Jesse Jone Alice Jone Jesse Steven Mary Steven Frank Jone Mary Jone Frank Philip Alice Philip Jesse Mark Alice Mark Jesse |
四、实验报告
实验报告 |
||||
题目: |
实验四 |
姓名 |
郭子鹏 |
日期 |
实验环境: l 操作系统:Linux l Hadoop版本:3.2.1 l Spark版本2.0
|
||||
解决问题的思路:数据去重的最终目标是让原始数据中出现次数超过一次的数据在输出文件中只出现一次。由于shuffle过程会有合并相同key值记录的过程,只要将不同文件中相同内容数据的Key设置成一样的,即是Map处理后是一样的,然后交给Reduce,无论这个数据的value-list是怎么样,只要在最终结果输出它的key就行了。 |
||||
实验内容与完成情况:这里选择的是实验(一) 代码为: import org.apache.hadoop.conf.Configuration;
|
||||
出现的问题:对新的操作环境的不熟悉,写起代码来十分僵硬 |
||||
解决方案(列出遇到的问题和解决办法,列出没有解决的问题):多尝试几次,熟悉之后就好很多了 |