import java.io.FileInputStream;
import java.io.InputStream;
import java.net.URL;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
/**
* java实现 HDFS 因为是测试 所以直接throws Exception开发不建议使用
* @author LiMing E-mail:1151143484@qq.com
* @date 2017年5月14日 下午12:28:29
*/
public class HelloHDFS {
public static void main(String[] args) {
//测试1
/* URL简单使用
URL url =new URL("https://www.baidu.com");
InputStream in =url.openStream();
//copyBytes 把in中数据 输入到out中 1024是缓冲长度 true是传输完成后是否关闭流
IOUtils.copyBytes(in, System.out, 1024,true);
*/
try{
//测试2
/*//URL默认不支持hdfs连接 如果使用hdfs连接还需要设置
URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
//读取hdfs中上传的hello.txt 之前就上传到根目录了
URL url=new URL("hdfs://192.168.66.8:9000/hello.txt");
InputStream in =url.openStream();
IOUtils.copyBytes(in, System.out, 1024,true);*/
/*Configuration conf=new Configuration();
conf.set("fs.defaultFS", "hdfs://192.168.66.8:9000");
FileSystem fileSystem=FileSystem.get(conf);
//创建文件夹 在根目录下创建文件夹liming 成功返回true
boolean suc1= fileSystem.mkdirs(new Path("/liming"));
System.out.println(suc1);
//判断文件或目录存在与否 存在返回true
boolean suc2= fileSystem.exists(new Path("/liming"));
System.out.println(suc2);
//删除指定文件/文件夹 删除是会放到一个类似回收站的地方 如果第二个参数设置为true那么就会直接彻底删除
boolean suc3= fileSystem.delete(new Path("/liming"),true);
System.out.println(suc3);
//删除之后判断存在不存在
boolean suc4= fileSystem.exists(new Path("/liming"));
System.out.println(suc4);*/
//测试3
/*//写文件到hdfs系统 创建test.data并写入内容
Configuration conf=new Configuration();
conf.set("fs.defaultFS", "hdfs://192.168.66.8:9000");
FileSystem fileSystem=FileSystem.get(conf);
FSDataOutputStream out=fileSystem.create(new Path("/test.data"),true) ;
FileInputStream fileInputStream=new FileInputStream("c:/test.txt");
IOUtils.copyBytes(fileInputStream, out, 1024,true);
//创建之后读取内容 看看是不是存在
URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
URL url2=new URL("hdfs://192.168.66.8:9000/test.data");
InputStream in2 =url2.openStream();
IOUtils.copyBytes(in2, System.out, 1024,true);
*/
//测试4
/*//也可以用原始的方式
Configuration conf=new Configuration();
conf.set("fs.defaultFS", "hdfs://192.168.66.8:9000");
FileSystem fileSystem=FileSystem.get(conf);
FSDataOutputStream out2=fileSystem.create(new Path("/test2.data"),true) ;
FileInputStream fileInputStream2=new FileInputStream("c:/test.txt");
byte[] buf=new byte[1024];
int len = fileInputStream2.read(buf);
while (len != -1) {
out2.write(buf);
len = fileInputStream2.read(buf);
}
fileInputStream2.close();
out2.close();
//查看是否存在
URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
URL url3=new URL("hdfs://192.168.66.8:9000/test2.data");
InputStream in3 =url3.openStream();
IOUtils.copyBytes(in3, System.out, 1024,true);*/
}catch(Exception e){
e.printStackTrace();
}
}
}
源码下载地址:http://download.csdn.net/detail/qq_36291682/9842125
所用jar包 可能不是全部使用 但是导入的时候是全部导入了:
hadoop-common-2.7.3.jar
activation-1.1.jar
apacheds-i18n-2.0.0-M15.jar
apacheds-kerberos-codec-2.0.0-M15.jar
api-asn1-api-1.0.0-M20.jar
api-util-1.0.0-M20.jar
asm-3.2.jar
avro-1.7.4.jar
commons-beanutils-1.7.0.jar
commons-beanutils-core-1.8.0.jar
commons-cli-1.2.jar
commons-codec-1.4.jar
commons-collections-3.2.2.jar
commons-compress-1.4.1.jar
commons-configuration-1.6.jar
commons-digester-1.8.jar
commons-httpclient-3.1.jar
commons-io-2.4.jar
commons-lang-2.6.jar
commons-logging-1.1.3.jar
commons-math3-3.1.1.jar
commons-net-3.1.jar
curator-client-2.7.1.jar
curator-framework-2.7.1.jar
curator-recipes-2.7.1.jar
gson-2.2.4.jar
guava-11.0.2.jar
hadoop-annotations-2.7.3.jar
hadoop-auth-2.7.3.jar
hamcrest-core-1.3.jar
htrace-core-3.1.0-incubating.jar
httpclient-4.2.5.jar
httpcore-4.2.5.jar
jackson-core-asl-1.9.13.jar
jackson-jaxrs-1.9.13.jar
jackson-mapper-asl-1.9.13.jar
jackson-xc-1.9.13.jar
java-xmlbuilder-0.4.jar
jaxb-api-2.2.2.jar
jaxb-impl-2.2.3-1.jar
jersey-core-1.9.jar
jersey-json-1.9.jar
jersey-server-1.9.jar
jets3t-0.9.0.jar
jettison-1.1.jar
jetty-6.1.26.jar
jetty-util-6.1.26.jar
jsch-0.1.42.jar
jsp-api-2.1.jar
jsr305-3.0.0.jar
junit-4.11.jar
log4j-1.2.17.jar
mockito-all-1.8.5.jar
netty-3.6.2.Final.jar
paranamer-2.3.jar
protobuf-java-2.5.0.jar
servlet-api-2.5.jar
slf4j-api-1.7.10.jar
slf4j-log4j12-1.7.10.jar
snappy-java-1.0.4.1.jar
stax-api-1.0-2.jar
xmlenc-0.52.jar
xz-1.0.jar
zookeeper-3.4.6.jar
hadoop-hdfs-2.7.3.jar