3.HDFS的shell(命令行客户端)操作
3.1 HDFS命令行客户端使用
HDFS提供shell命令行客户端,使用方法如下:
[toto@hadoop hadoop-2.8.0]$ hdfs dfs -ls / (推荐使用这种方式,hdfs现在这种是最新的一种方式) Found 4 items drwxr-xr-x - toto supergroup 0 2017-05-29 14:01 /findbugs-1.3.9 drwxr-xr-x - toto supergroup 0 2017-05-29 03:23 /hive drwx------ - toto supergroup 0 2017-05-29 14:47 /tmp drwxr-xr-x - toto supergroup 0 2017-05-29 14:47 /user [toto@hadoop hadoop-2.8.0]$
或者使用: [toto@hadoop hadoop-2.8.0]$ hadoop fs -ls / Found 4 items drwxr-xr-x - toto supergroup 0 2017-05-29 14:01 /findbugs-1.3.9 drwxr-xr-x - toto supergroup 0 2017-05-29 03:23 /hive drwx------ - toto supergroup 0 2017-05-29 14:47 /tmp drwxr-xr-x - toto supergroup 0 2017-05-29 14:47 /user [toto@hadoop hadoop-2.8.0]$ |
3.2 命令行客户端支持的命令参数
[toto@hadoop learn]$ hadoop fs help Usage: hadoop fs [generic options] [-appendToFile <localsrc> ... <dst>] [-cat [-ignoreCrc] <src> ...] [-checksum <src> ...] [-chgrp [-R] GROUP PATH...] [-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...] [-chown [-R] [OWNER][:[GROUP]] PATH...] [-copyFromLocal [-f] [-p] [-l] [-d] <localsrc> ... <dst>] [-copyToLocal [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>] [-count [-q] [-h] [-v] [-t [<storage type>]] [-u] [-x] <path> ...] [-cp [-f] [-p | -p[topax]] [-d] <src> ... <dst>] [-createSnapshot <snapshotDir> [<snapshotName>]] [-deleteSnapshot <snapshotDir> <snapshotName>] [-df [-h] [<path> ...]] [-du [-s] [-h] [-x] <path> ...] [-expunge] [-find <path> ... <expression> ...] [-get [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>] [-getfacl [-R] <path>] [-getfattr [-R] {-n name | -d} [-e en] <path>] [-getmerge [-nl] [-skip-empty-file] <src> <localdst>] [-help [cmd ...]] [-ls [-C] [-d] [-h] [-q] [-R] [-t] [-S] [-r] [-u] [<path> ...]] [-mkdir [-p] <path> ...] [-moveFromLocal <localsrc> ... <dst>] [-moveToLocal <src> <localdst>] [-mv <src> ... <dst>] [-put [-f] [-p] [-l] [-d] <localsrc> ... <dst>] [-renameSnapshot <snapshotDir> <oldName> <newName>] [-rm [-f] [-r|-R] [-skipTrash] [-safely] <src> ...] [-rmdir [--ignore-fail-on-non-empty] <dir> ...] [-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]] [-setfattr {-n name [-v value] | -x name} <path>] [-setrep [-R] [-w] <rep> <path> ...] [-stat [format] <path> ...] [-tail [-f] <file>] [-test -[defsz] <path>] [-text [-ignoreCrc] <src> ...] [-touchz <path> ...] [-truncate [-w] <length> <path> ...] [-usage [cmd ...]]
[toto@hadoop learn]$ |
3.2 常用命令参数介绍
关于hdfs的命令,可以查看http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_shell.html
FS Shell
调用文件系统(FS)Shell命令应使用 bin/hadoop fs <args>的形式。 所有的的FS shell命令使用URI路径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,scheme是hdfs,对本地文件系统,scheme是file。其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme。一个HDFS文件或目录比如/parent/child可以表示成hdfs://namenode:namenodeport/parent/child,或者更简单的/parent/child(假设你配置文件中的默认值是namenode:namenodeport)。大多数FS Shell命令的行为和对应的Unix Shell命令类似,不同之处会在下面介绍各命令使用详情时指出。出错信息会输出到stderr,其他信息输出到stdout。
-help 功能:输出这个命令参数手册 |
-ls 功能:显示目录信息 示例: hadoop fs -ls hdfs://hadoop:9000/ 备注:这些参数中,所有的hdfs路径都可以简写 -->hadoop fs -ls / 等同于上一条命令的效果 [toto@hadoop learn]$ hadoop fs -ls hdfs://hadoop:9000/ Found 4 items drwxr-xr-x - toto supergroup 0 2017-05-29 14:01 hdfs://hadoop:9000/findbugs-1.3.9 drwxr-xr-x - toto supergroup 0 2017-05-29 03:23 hdfs://hadoop:9000/hive drwx------ - toto supergroup 0 2017-05-29 14:47 hdfs://hadoop:9000/tmp drwxr-xr-x - toto supergroup 0 2017-05-29 14:47 hdfs://hadoop:9000/user [toto@hadoop learn]$
上面的命令等同:hadoop fs -ls /
[toto@hadoop learn]$ hadoop fs -ls hdfs://hadoop:9000/findbugs-1.3.9 下面的命令表示同时列出hdfs://hadoop:9000/findbugs-1.3.9和hive下面的内容 [toto@hadoop learn]$ hadoop fs -ls hdfs://hadoop:9000/findbugs-1.3.9 /hive |
-mkdir
mkdir使用方法:hadoop fs -mkdir <paths> 功能:在hdfs上创建目录,接受路径指定的uri作为参数,创建这些目录。其行为类似于Unix的mkdir -p,它会创建路径中的各级父目录。 示例:hadoop fs -mkdir -p /aaa/bbb/cc/dd
再如示例: [toto@hadoop learn]$hadoop fs –mkdir -p /user/hadoop/dir1 /user/hadoop/dir2 [toto@hadoop learn]$ hadoop fs -mkdir -p hdfs://hadoop:9000/toto hdfs://hadoop:9000/toto2 [toto@hadoop learn]$ hadoop fs -ls / Found 6 items drwxr-xr-x - toto supergroup 0 2017-05-29 14:01 /findbugs-1.3.9 drwxr-xr-x - toto supergroup 0 2017-05-29 03:23 /hive drwx------ - toto supergroup 0 2017-05-29 14:47 /tmp drwxr-xr-x - toto supergroup 0 2017-05-29 23:40 /toto drwxr-xr-x - toto supergroup 0 2017-05-29 23:41 /toto2 drwxr-xr-x - toto supergroup 0 2017-05-29 23:36 /user
对应浏览器上的访问效果如下:http://hadoop:50070/explorer.html#/ 显示效果一致 |
-moveFromLocal 使用方法:dfs -moveFromLocal <src> <dst> 功能:从本地剪切粘贴到hdfs [toto@hadoop learn]$ ls hadoop LICENSE-ASM.txt [toto@hadoop learn]$ hdfs dfs -moveFromLocal LICENSE-ASM.txt /toto [toto@hadoop learn]$ hdfs dfs -ls /toto Found 1 items -rw-r--r-- 3 toto supergroup 1511 2017-05-29 23:50 /toto/LICENSE-ASM.txt [toto@hadoop learn]$
再如: [toto@hadoop learn]$ hadoop fs -moveFromLocal hadoop /toto [toto@hadoop learn]$ hadoop fs -ls /toto Found 2 items -rw-r--r-- 3 toto supergroup 1511 2017-05-29 23:50 /toto/LICENSE-ASM.txt drwxr-xr-x - toto supergroup 0 2017-05-29 23:53 /toto/hadoop [toto@hadoop learn]$
-moveToLocal 功能:从hdfs剪切粘贴到本地 示例:hadoop fs - moveToLocal /aaa/bbb/cc/dd /home/hadoop/a.txt |
--appendToFile 功能:追加一个文件到已经存在的文件末尾 示例:hadoop fs -appendToFile ./hello.txt hdfs://hadoop:9000/hello.txt 可以简写为: Hadoop fs -appendToFile ./hello.txt /hello.txt
实际案例: [toto@hadoop learn]$ hadoop fs -put text.txt /toto [toto@hadoop learn]$ hadoop fs -ls /toto Found 3 items -rw-r--r-- 3 toto supergroup 1511 2017-05-29 23:50 /toto/LICENSE-ASM.txt drwxr-xr-x - toto supergroup 0 2017-05-29 23:53 /toto/hadoop -rw-r--r-- 3 toto supergroup 0 2017-05-29 23:59 /toto/text.txt [toto@hadoop learn]$ cat hello.txt 示例:hadoop fs -appendToFile ./hello.txt hdfs://hadoop:9000/hello.txt 可以简写为: Hadoop fs -appendToFile ./hello.txt /hello.txt
将文件上传到hdfs [toto@hadoop learn]$ hadoop fs -appendToFile ./hello.txt hdfs://hadoop:9000/toto/text.txt 查看拼接到text.txt中的内容 [toto@hadoop learn]$ hadoop fs -cat /toto/text.txt 示例:hadoop fs -appendToFile ./hello.txt hdfs://hadoop:9000/hello.txt 可以简写为: Hadoop fs -appendToFile ./hello.txt /hello.txt
[toto@hadoop learn]$ |
-cat 功能:显示文件内容 示例:hadoop fs -cat /hello.txt
-tail 功能:显示一个文件的末尾 示例:hadoop fs -tail /weblog/access_log.1 实际案例: [toto@hadoop learn]$ hadoop fs -tail /toto/text.txt 示例:hadoop fs -appendToFile ./hello.txt hdfs://hadoop:9000/hello.txt 可以简写为: Hadoop fs -appendToFile ./hello.txt /hello.txt
[toto@hadoop learn]$
-text 功能:以字符形式打印一个文件的内容 示例:hadoop fs -text /weblog/access_log.1 实际案例: [toto@hadoop learn]$ hadoop fs -text /toto/text.txt 示例:hadoop fs -appendToFile ./hello.txt hdfs://hadoop:9000/hello.txt 可以简写为: Hadoop fs -appendToFile ./hello.txt /hello.txt
[toto@hadoop learn]$ |
-chgrp -chmod -chown 功能:linux文件系统中的用法一样,对文件所属权限 示例: hadoop fs -chmod 666 /hello.txt hadoop fs -chown someuser:somegrp /hello.txt
实际案例: [toto@hadoop learn]$ hadoop fs -chmod 777 /toto/text.txt [toto@hadoop learn]$ hadoop fs -ls /toto/text.txt -rwxrwxrwx 3 toto supergroup 149 2017-05-30 00:01 /toto/text.txt [toto@hadoop learn]$ hadoop fs -chmod 666 /toto/text.txt [toto@hadoop learn]$ hadoop fs -ls /toto/text.txt -rw-rw-rw- 3 toto supergroup 149 2017-05-30 00:01 /toto/text.txt [toto@hadoop learn]$ |
-copyFromLocal 功能:从本地文件系统中拷贝文件到hdfs路径去 示例:hadoop fs -copyFromLocal ./jdk.tar.gz /aaa/
实际案例: [toto@hadoop learn]$ cat hello.txt 示例:hadoop fs -appendToFile ./hello.txt hdfs://hadoop:9000/hello.txt 可以简写为: Hadoop fs -appendToFile ./hello.txt /hello.txt
[toto@hadoop learn]$ hadoop fs -copyFromLocal ./hello.txt /toto2 [toto@hadoop learn]$ ls hello.txt text.txt [toto@hadoop learn]$ hadoop fs -ls /toto2 Found 1 items -rw-r--r-- 3 toto supergroup 149 2017-05-30 00:09 /toto2/hello.txt [toto@hadoop learn]$
-copyToLocal 功能:从hdfs拷贝到本地 示例:hadoop fs -copyToLocal /aaa/jdk.tar.gz 实际案例: [toto@hadoop learn]$ hadoop fs -ls / Found 6 items drwxr-xr-x - toto supergroup 0 2017-05-29 14:01 /findbugs-1.3.9 drwxr-xr-x - toto supergroup 0 2017-05-29 03:23 /hive drwx------ - toto supergroup 0 2017-05-29 14:47 /tmp drwxr-xr-x - toto supergroup 0 2017-05-29 23:59 /toto drwxr-xr-x - toto supergroup 0 2017-05-30 00:09 /toto2 drwxr-xr-x - toto supergroup 0 2017-05-29 23:36 /user [toto@hadoop learn]$ hadoop fs -copyToLocal /findbugs-1.3.9 ./ [toto@hadoop learn]$ ls findbugs-1.3.9 hello.txt text.txt [toto@hadoop learn]$ hadoop fs -ls / Found 6 items drwxr-xr-x - toto supergroup 0 2017-05-29 14:01 /findbugs-1.3.9 drwxr-xr-x - toto supergroup 0 2017-05-29 03:23 /hive drwx------ - toto supergroup 0 2017-05-29 14:47 /tmp drwxr-xr-x - toto supergroup 0 2017-05-29 23:59 /toto drwxr-xr-x - toto supergroup 0 2017-05-30 00:09 /toto2 drwxr-xr-x - toto supergroup 0 2017-05-29 23:36 /user [toto@hadoop learn]$ |
-cp 功能:从hdfs的一个路径拷贝hdfs的另一个路径 示例: hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2 Usage: hadoop fs [generic options] -cp [-f] [-p | -p[topax]] [-d] <src> ... <dst> [toto@hadoop learn]$ hadoop fs -cp -p /findbugs-1.3.9 /toto2 [toto@hadoop learn]$ hadoop fs -ls /toto2 Found 2 items drwxr-xr-x - toto supergroup 0 2017-05-29 14:01 /toto2/findbugs-1.3.9 -rw-r--r-- 3 toto supergroup 149 2017-05-30 00:09 /toto2/hello.txt [toto@hadoop learn]$
-mv 功能:在hdfs目录中移动文件 示例: hadoop fs -mv /aaa/jdk.tar.gz / 实际案例: [toto@hadoop learn]$ hadoop fs -ls /toto2 Found 2 items drwxr-xr-x - toto supergroup 0 2017-05-29 14:01 /toto2/findbugs-1.3.9 -rw-r--r-- 3 toto supergroup 149 2017-05-30 00:09 /toto2/hello.txt [toto@hadoop learn]$ hadoop fs -mv /toto/hello.txt /user mv: `/toto/hello.txt': No such file or directory [toto@hadoop learn]$ hadoop fs -mv /toto2/hello.txt /user [toto@hadoop learn]$ hadoop fs -ls /user Found 3 items drwxr-xr-x - toto supergroup 0 2017-05-29 23:36 /user/hadoop -rw-r--r-- 3 toto supergroup 149 2017-05-30 00:09 /user/hello.txt drwxr-xr-x - toto supergroup 0 2017-05-29 14:51 /user/toto [toto@hadoop learn]$ |
-get 功能:等同于copyToLocal,就是从hdfs下载文件到本地 示例:hadoop fs -get /aaa/jdk.tar.gz
功能:合并下载多个文件 示例:比getmerge 如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,... hadoop fs -getmerge /aaa/log.* ./log.sum |
-put 功能:等同于copyFromLocal 示例:hadoop fs -put /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2 |
-rm 功能:删除文件或文件夹 示例:hadoop fs -rm -r /aaa/bbb/ 实际案例:
-rmdir 功能:删除空目录 示例:hadoop fs -rmdir /aaa/bbb/ccc
删除非空文件夹时不让报错的命令: hadoop fs -rmdir --ignore-fail-on-non-empty /toto2/findbugs-1.3.9/lib |
-df 功能:统计文件系统的可用空间信息 示例:hadoop fs -df -h / [toto@hadoop learn]$ hdfs dfs -df -h / Filesystem Size Used Available Use% hdfs://hadoop:9000 134.4 G 472.4 M 97.8 G 0%
-du 功能:统计文件夹的大小信息 示例: hadoop fs -du -s -h /aaa/* [toto@hadoop learn]$ hadoop fs -du -s -h /toto2 2.3 M /toto2 [toto@hadoop learn]$ |
-count 功能:统计一个指定目录下的文件节点数量 示例:hadoop fs -count /aaa/
|
-setrep 功能:设置hdfs中文件的副本数量 示例:hadoop fs -setrep 3 /aaa/jdk.tar.gz (这里的3) 实际命令: [toto@hadoop learn]$ hadoop fs -setrep 3 /toto2/findbugs-1.3.9 Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-ASM.txt Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-bcel.txt Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-commons-lang.txt Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-docbook.txt Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-dom4j.txt Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-jFormatString.txt Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-jaxen.txt Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-jcip.txt Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-jdepend.txt Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-jsr305.txt Replication 3 set: /toto2/findbugs-1.3.9/LICENSE-mysql-connector.txt Replication 3 set: /toto2/findbugs-1.3.9/LICENSE.txt |
补充:查看dfs集群工作状态的命令
hdfs dfsadmin -report