原本的目的是想模拟一个流的上传过程,就是一边生成数据,一边存储数据,因为能用上HADOOP通常情况下原本数据的大小就大到本地硬盘存不下。这一般是通过把数据先一部分一部分的缓冲到本地的某个文件夹下,hdfs把缓冲文件夹中的文件一点一点上传,并把上传了的缓冲文件删除。
我这里没有实现数据的分次生成,而是直接用了一个文件,上传的时候模拟缓存一点一点上传。
代码如下:保存为Read2.java
import java.io.File;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path; public class Read2{
public static void main(String [] args)throws Exception{
Configuration conf = new Configuration();
FileSystem hdfs = FileSystem.get(conf);
FileSystem local=FileSystem.getLocal(conf);
Path inputDir = new Path("/home/data/"); //获取本地待被上传的文件 会把该文件夹下的内容都上传
Path hdfsFile = new Path("/acceptFile/"); //获取hdfs上需要获取文件的地址
hdfs.mkdirs(hdfsFile); //在hdfs上新建该文件夹
FileStatus[] inputFiles=local.listStatus(inputDir); //获取本地待上传文件夹的信息
FSDataOutputStream out;
for(int i = 0; i < inputFiles.length; i++) //i循环本地文件夹内的文件个数
{
System.out.println(inputFiles[i].getPath().getName());
FSDataInputStream in = local.open(inputFiles[i].getPath()); //获取输入流
out = hdfs.create(new Path("/acceptFile/"+inputFiles[i].getPath().getName())); //输出流位置获取
byte buffer[] = new byte[256];
int bytesRead = 0;
while((bytesRead = in.read(buffer))>0){ //每次读取buffer大小的部分
out.write(buffer,0,bytesRead); //每次写入buffer中bytesRead大小的部分
}
out.close();
in.close();
}
}
}
代码的运行经过前面的例子已经很熟悉了
bin/hadoop com.sun.tools.javac.Main Read2.java
jar cf read2.jar Read2*.class
bin/hadoop jar read2.jar Read2
结果:
我本地文件夹下有一个文件,成功的被上传了