Hive是一个数据仓库基础工具在Hadoop中用来处理结构化数据。它架构在Hadoop之上,总归为大数据,并使得查询和分析方便。并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。
Hive 不是
- 一个关系数据库
- 一个设计用于联机事务处理(OLTP)
- 实时查询和行级更新的语言
Hiver特点
- 它存储架构在一个数据库中并处理数据到HDFS。
- 它是专为OLAP设计。
- 它提供SQL类型语言查询叫HiveQL或HQL。
- 它是熟知,快速,可扩展和可扩展的。
Hive工作原理
下图描述了Hive 和Hadoop之间的工作流程。
下表定义Hive和Hadoop框架的交互方式:
Step No. | 操作 |
---|---|
1 |
Execute Query Hive接口,如命令行或Web UI发送查询驱动程序(任何数据库驱动程序,如JDBC,ODBC等)来执行。 |
2 |
Get Plan 在驱动程序帮助下查询编译器,分析查询检查语法和查询计划或查询的要求。 |
3 |
Get Metadata 编译器发送元数据请求到Metastore(任何数据库)。 |
4 |
Send Metadata Metastore发送元数据,以编译器的响应。 |
5 |
Send Plan 编译器检查要求,并重新发送计划给驱动程序。到此为止,查询解析和编译完成。 |
6 |
Execute Plan 驱动程序发送的执行计划到执行引擎。 |
7 |
Execute Job 在内部,执行作业的过程是一个MapReduce工作。执行引擎发送作业给JobTracker,在名称节点并把它分配作业到TaskTracker,这是在数据节点。在这里,查询执行MapReduce工作。 |
7.1 |
Metadata Ops 与此同时,在执行时,执行引擎可以通过Metastore执行元数据操作。 |
8 |
Fetch Result 执行引擎接收来自数据节点的结果。 |
9 |
Send Results 执行引擎发送这些结果值给驱动程序。 |
10 |
Send Results 驱动程序将结果发送给Hive接口。 |