一.概述
1. Hive是Apache提供的基于Hadoop的数据仓库管理工具
2. Hive提供了类SQL语言来操作Hadoop,底层会将SQL转化为MapReduce来执行,所以效率会比较低
3. Hive适应于离线处理
4. 要求安装Hive的节点要先安装Hadoop,解压完成之后,在启动Hive的时候自动去找环境变量中的HADOOP_HOME
二.数据仓库和数据库比较
数据库 数据仓库
数据量 <=GB >=TB
数据种类 单一 - 结构化 多样 - 结构化、半结构化、非结构化
数据来源 相对单一 数据库、日志、爬虫、埋点…
事务 提供了完整的事务(ACID) 弱/无事务
冗余 精简冗余 人为制造冗余 - 副本
场景 为线上系统实时捕获数据 一般存储的是历史数据
系统 OLTP - 联机事务处理 OLAP - 联机分析处理
面向对象 最终面向程序员、DBA 最终面向市场、领导、客户等人员
三.Hive的特点
1. 在Hive中,每一个database/table在HDFS都会对应一个目录
2. Hive中没有主键
3.Hive中如果需要指定字段之间的间隔符号,需要在建表的时候就指定,而一个表一旦建立好,那么间隔符号不能改
4.三个查数据:
从表t1查数据,将指定数据插入到表t2和表t3内;
from t1 insert into t2 select * where id <= 4 insert into t3 select * where gender = 'male';
从表t1查数据,将指定数据写入到本地目录下;
insert overwrite local directory '/opt/hivedata' select * from t1 where id <= 2;
从表t1查数据,将指定数据放入hdfs的指定目录下;
insert overwrite directory '/table' select * from t1;
5.向本地目录或者HDFS中的目录写文件的时候只能用overwrite
四.表结构
1.内部表和外部表
a.内部表:自己建表管理原本在HDFS上不存在的数据
b.外部表:需要建表管理在HDFS上已经存在的数据
c.内部表删除对应的目录一起删除,但是外部表被删除不改变原文件
2.分区表
a.分区字段在原文件中是不存在,需要在添加数据的时候手动指定
b.分区的作用是将数据进行分类
create table cities(id int, name string) partitioned by(country string) row format delimited fields terminated by ' ';
load data local inpath '/opt/hivedata/cn.txt' into table cities partition(country='china');
c.每一个分区对应一个目录
d.如果在查询的时候加入分区条件,效率会大幅度提高;如果产生了跨分区查询,效率反而会下降
e.自己手动创建的目录并不会被认为称分区,需要手动来添加分区
alter table cities add partition(country='japan') location '/user/hive/warehouse/hivedemo.db/cities/country=japan';
或(可能会失败)
msck repair table cities;
f.如果从未分区表中查询数据向已分区表中插入,那么需要开启动态分区机制
# 开启动态分区机制
set hive.exec.dynamic.partition = true;
# 关闭严格模式
set hive.exec.dynamic.partition.mode = nostrict;
# 进行动态分区
insert into table t1 partition(class) select sid, sname, sclass from t1_tmp distribute by sclass;
g.分区的时候可以指定多个字段,在前的字段会自动包含在后的字段
3.分桶表
a.分桶表的作用是用于进行数据抽样的
b.分桶机制默认是不开启的
set hive.enforce.bucketing = true;
create table t1_sam(id int, name string) clustered by(name) into 6 buckets row format delimited fields terminated by ' ';
insert into table t1_sam select * from t1;
select * from t1_sam tablesample(bucket 2 out of 3 on name);
c.分桶表在进行分桶的时候不能从本地文件加载数据,也不能是外部表,只能从其他表中查询然后插入分桶表中
d.允许一个表既分区又分桶
五.其他
1.SerDe
a.通过正则表达式来应对实际过程中不规则数据
b.在正则表达式中设置捕获组来应对不规则数据,在使用的时候,每一个捕获组对应表中的一个字段,意味着捕获组的个数和字段的个数是一致的 --- 确定捕获组之间的间隔符号
create table t4(ip string, datetime string, timezone string, request string,resource string, protocol string, stateid int)row format serde 'org.apache.hadoop.hive.serde2.RegexSerDe' with serdeproperties("input.regex" = "(.*) \-\- \\[(.*) (.*)\\] \"(.*) (.*) (.*)\" ([0-9]*) \-") stored as textfile;
2.索引
a.索引的作用是能够提高查询速率
b.数据库中的索引是针对主键自动建立索引,Hive没有主键,所以Hive中默认也不自动建立索引
c.在Hive中,数据可以建立索引,但是需要指定字段建立索引
# 建立索引表
create index s_index on table t1(id) as 'org.apache.hadoop.hive.ql.index.compact.CompactIndexHandler' with deferred rebuild in table t1_index;
# 针对表t1产生索引
alter index s_index on t1 rebuild;
# 删除索引
drop index s_index on t1;
3.视图
a.
b.视图分为:物化视图(视图是维系在磁盘上)和虚拟视图(视图是维系在内存中)
c.Hive中只支持虚拟视图
create view score_view as select name, math from score;
d.视图中要跟随一个查询语句,但是在Hive中,创建视图的时候,这个查询语句并没有被触发 - 即意味着,这个视图创建好之后,只要没有操作这个视图,那么这个视图中此时是没有数据的
4.元数据
a.库名、表名、字段名、索引、视图、分区字段、抽样字段等称之为Hive的元数据
b.Hive的元数据是存储在关系型数据库中。关系型数据库目前只支持两种:Derby和MySQL。默认情况下,Hive的元数据是存储在Derby中
5.beeline
#远程连接方式:
sh beeline -u
jdbc:hive2://hadoop01:10000/hivedemo -n root
# 其中,-u表示连接地址,-n表示用户名
六.数据类型
1.将数据类型拆分为基本类型和复杂类型
2.复杂类型:
a.array--数组类型,对应Java中的数组和集合
# 例句
create table nums(num1 array<int>, num2 array<int>) row format delimited fields terminated by ' ' collection items terminated by ',';
# 非空查询
select info['alex'] from infos where info['alex'] is not null;
b.map--映射类型,对应Java中的Map类型
# 例句
create table infos(id int, info map<string,int>) row format delimited fields terminated by ' ' map keys terminated by ':';
# 非空查询
select info['alex'] from infos where info['alex'] is not null;
c.struct--结构体类型,对应Java中的对象
# 例句
create external table score(info struct<name:string, chinese:int, math:int, english:int>) row format delimited collection items terminated by ' ' location '/score';
#获取指定属性值
select info.chinese from score;
七.主要函数
1.concat_ws:用指定符号拼接多个字符串
例:
# txt文档内容为
mail com
news baidu com
hive apache org
# 建表
create table web(app string, name string, type string) row format delimited fields terminated by ' ';
# 拼接
select concat_ws('.', app, name, type) from web;
2.explode:将数组中元素提取出来形成单独的一行
例:
# 建表管理原始数据
create external table words(word string) row format delimited fields terminated by ',' location '/words';
# 以空格为单位将单词给拆分成数组
select split(word, ' ') from words;
# 将数组中的每一个单词拆分成单独的一行以便于统计
select explode(split(word, ' ')) from words;
# 统计个数
select w , count(w) from (select explode(split(word, ' ')) w from words)ws group by w;
3.自定义函数 - UDF - User Define Function
Hive学习笔记简版的更多相关文章
-
hive学习笔记之十:用户自定义聚合函数(UDAF)
欢迎访问我的GitHub 这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos 本篇概览 本文是<hive学习笔记>的第十 ...
-
Java基础及JavaWEB以及SSM框架学习笔记Xmind版
Java基础及JavaWEB以及SSM框架学习笔记Xmind版 转行做程序员也1年多了,最近开始整理以前学习过程中记录的笔记,以及一些容易犯错的内容.现在分享给网友们.笔记共三部分. JavaSE 目 ...
-
hive学习笔记之一:基本数据类型
欢迎访问我的GitHub https://github.com/zq2599/blog_demos 内容:所有原创文章分类汇总及配套源码,涉及Java.Docker.Kubernetes.DevOPS ...
-
hive学习笔记之三:内部表和外部表
欢迎访问我的GitHub https://github.com/zq2599/blog_demos 内容:所有原创文章分类汇总及配套源码,涉及Java.Docker.Kubernetes.DevOPS ...
-
hive学习笔记之四:分区表
欢迎访问我的GitHub https://github.com/zq2599/blog_demos 内容:所有原创文章分类汇总及配套源码,涉及Java.Docker.Kubernetes.DevOPS ...
-
hive学习笔记之五:分桶
欢迎访问我的GitHub https://github.com/zq2599/blog_demos 内容:所有原创文章分类汇总及配套源码,涉及Java.Docker.Kubernetes.DevOPS ...
-
hive学习笔记之六:HiveQL基础
欢迎访问我的GitHub https://github.com/zq2599/blog_demos 内容:所有原创文章分类汇总及配套源码,涉及Java.Docker.Kubernetes.DevOPS ...
-
hive学习笔记之七:内置函数
欢迎访问我的GitHub https://github.com/zq2599/blog_demos 内容:所有原创文章分类汇总及配套源码,涉及Java.Docker.Kubernetes.DevOPS ...
-
hive学习笔记之九:基础UDF
欢迎访问我的GitHub https://github.com/zq2599/blog_demos 内容:所有原创文章分类汇总及配套源码,涉及Java.Docker.Kubernetes.DevOPS ...
随机推荐
-
switch判断注意点
if判断,如果判断的两个值类型不同,会继续隐性转换,==,当然如果使用===就不会. 1 if(2=="2"){ 2 console.log("true"); ...
-
“不支持一个STA线程上针对多个句柄的WaitAll。”的解决方案
一.异常提示 不支持一个 STA 线程上针对多个句柄的 WaitAll. 出错界面如下图: 二.解决方法 先直接上解决方案吧.其实解决方法很简单如下面的代码直接把main函数的[STAThread]属 ...
-
C++中,申请字符串数组可用new实现
C++中,申请字符串数组可用new实现: char ** list = new char*[MAX_NUM]; for (int i = 0; i< MAX_LOOP; i++) list[i] ...
-
除去字符串中不相临的重复的字符 aabcad 得 aabcd
假设有一个字符串aabcad,请编写一段程序,去掉字符串中不相邻的重复字符.即上述字串处理之后结果是为:aabcd; 分析,重点考查 char 与int 的隐式转换.程序如下: static void ...
-
cryptopp开源库的使用(二):base64加密
很多时候我只是优秀工具的使用者,优秀的工具用好了才能发挥作用 最近使用cryptopp的base64对压缩后的zip文件内容进行加密遇到了问题. 首先zip压缩没问题,可是最后得到的base64字符串 ...
-
MySQL基础使用
数据库 其实我们常常说的数据库,应该叫数据库系统. 表和库 数据表:用来保存数据的表格 数据库:用来统一管理数据表的容器 启动mysql 关闭mysql service mysqld start(启动 ...
-
接口测试之——Charles抓包及常见问题解决(转载自https://www.jianshu.com/p/831c0114179f)
简介 Charles其实是一款代理服务器,通过成为电脑或者浏览器的代理,然后截取请求和请求结果达到分析抓包的目的.该软件是用Java写的,能够在Windows,Mac,Linux上使用,安装Charl ...
-
LogXGEController: Error: XGE version 8.01 (build 1867) or higher is required for XGE shader
找到Engine/Config/ConsoleVariables.ini 禁用XGEShaderCompile就可以了
-
hdu5758 思维,树形dp
/*可以推测从叶子结点传送到叶子节点才能使传送次数最少,如果是偶数个叶子结点,那么传送leaf/2次就是答案,如果是奇数个叶子结点,则还有单独一条链需要覆盖dp[u]表示覆盖完u为根的子树需要走的边数 ...
-
Hadoop集群搭建笔记
1.安装虚拟机 VMware workstation CentOS 镜像 安装Linux虚拟机:(在Win7上) 1)安装VMwareWorkstations(可修改配置) 2)添加CentOS镜像( ...