1、Hive支持的一些命令
退出使用quit或exit离开交互式外壳。
set key = value使用它来设置特定配置变量的值。 这里要注意的一件事是,如果您对变量名拼写错误,cli将不会显示错误。
set这将打印由用户或配置单元覆盖的配置变量列表。
set -v这将打印所有hadoop和hive配置变量。
添加文件[文件] [文件] *将文件添加到资源列表
添加jar jarname
list FILE列出所有添加到分布式缓存的文件
list FILE [file] *检查给定资源是否已经添加到分布式缓存中
! [cmd]从配置单元外壳执行外壳命令
dfs [dfs cmd]从配置单元外壳执行dfs命令
2、语法结构
1、-i 从文件初始化 HQL
2、-e 从命令行执行指定的 HQL
3、-f 执行 HQL 脚本
4、-v 输出执行的 HQL 语句到控制台
5、-p connect to Hive Server on port number
6、-hiveconf x=y(Use this to set hive/hadoop configuration variables)
7、-S:表示以不打印日志的形式执行命名操作
linux命令行下直接运行HQL:hive -e "select * from cookie.cookie1;"
linux命令行下调用写好的HQL文件:hive -f hive.sql
linux命令行下调用写好的Conf文件配置参数 hive -i initive.conf
二、Hive的参数配置方式
1、Hive的参数配置大全
https://cwiki.apache.org/confluence/display/Hive/Configuration+Properties
2、Hive的参数设置方式
开发 Hive 应用时,不可避免地需要设定 Hive 的参数。设定 Hive 的参数可以调优 HQL 代码 的执行效率,或帮助定位问题。然而实践中经常遇到的一个问题是,为什么设定的参数没有 起作用?这通常是错误的设定方式导致的
对于一般参数,有以下三种设定方式
1、配置文件 (全局有效)
Hive 的配置文件包括:
A. 用户自定义配置文件:$HIVE_CONF_DIR/hive-site.xml
B. 默认配置文件:$HIVE_CONF_DIR/hive-default.xml
用户自定义配置会覆盖默认配置。
另外,Hive 也会读入 Hadoop 的配置,因为 Hive 是作为 Hadoop 的客户端启动的,Hive 的配 置会覆盖 Hadoop 的配置。
配置文件的设定对本机启动的所有 Hive 进程都有效。
2、命令行参数(对 hive 启动实例有效)
启动 Hive(客户端或 Server 方式)时,可以在命令行添加-hiveconf param=value 来设定参数,例如:
hive -hiveconf hiveroot.logger=INFO,console
这一设定对本次启动的 session(对于 server 方式启动,则是所有请求的 session)有效。
3、参数声明 (对 hive 的连接 session 有效)
这一设定的作用域也是 session 级的。
set hive.exec.reducers.bytes.per.reducer= 每个 reduce task 的平均负载数据量 Hive 会估算总数据量,然后用该值除以上述参数值,就能得出需要运行的 reduceTask 数
set hive.exec.reducers.max= 设置 reduce task 数量的上限
set mapreduce.job.reduces= 指定固定的 reduce task 数量
但是,这个参数在必要时<业务逻辑决定只能用一个 reduce task> hive 会忽略,比如在设置 了 set mapreduce.job.reduces = 3,但是 HQL 语句当中使用了 order by 的话,那么就会忽略该参数的设置。
上述三种设定方式的优先级依次递增。即参数声明覆盖命令行参数,命令行参数覆盖配置 文件设定。注意某些系统级的参数,例如 log4j 相关的设定,必须用前两种方式设定,因为 那些参数的读取在 session 建立以前已经完成了。