目录
1、 选择CDH版本的
选择版本hive-0.13.1-cdh5.3.6.tar.gz
[hadoop@bigdata-senior03 sofeware]$ tar -zxf
hive-0.13.1-cdh5.3.6.tar.gz -C /opt/modules/
设置HADOOP_HOME变量:
[hadoop@bigdata-senior03
hive-0.13.1-cdh5.3.6]$ vim /etc/profile
从模板复制文件:
[hadoop@bigdata-senior03 [hadoop@bigdata-senior03 [hadoop@bigdata-senior03 [hadoop@bigdata-senior03 |
[hadoop@bigdata-senior03
hive-0.13.1-cdh5.3.6]$ vim conf/hive-env.sh
(1)
添加JAVA_HOME参数
export JAVA_HOME=/opt/modules/jdk1.7.0_67
hive-site.xml文件有一个bug,在第2783行后面缺少一个<property>标签。需要补全property标签。
三、
安装MySQL数据库
Hive对mysql要去是最低版本为5.6.17版本的。用yum安装mysql可能需要更新yum源的版本。
(1) 下载mysql 的rpm文件:mysql57-community-release-el6-8.noarch.rpm
(2) 安装rpm,更新yum源里的mysql版本。
[hadoop@bigdata-senior03
hive-0.13.1-cdh5.3.6]$ sudo rpm -Uvh /opt/sofeware/mysql57-community-release-el6-8.noarch.rpm
(3) 查看yum源里的mysql
[hadoop@bigdata-senior03
hive-0.13.1-cdh5.3.6]$ cd /etc/yum.repos.d/
(4) 修改mysql-community.repo和mysql-community-source.repo文件
在两个文件中,将mysql5.7中的enabled改为0,将MySQL5.6中的enabled改为1。这样yum安装时就安装mysql5.6版本了。
2、 yum安装mysql
[hadoop@bigdata-senior03 yum.repos.d]$ sudo
yum -y install mysql-community-server
[hadoop@bigdata-senior03
yum.repos.d]$ sudo service mysqld
start
4、 mysql安全性设置
(1) 安装完成后,默认root用户是没有密码的,并且有一些匿名用户,查看用户可以以下命令。
用root用户登录mysql
: [hadoop@bigdata-senior03 yum.repos.d]$ mysql –uroot
切换到mysql库:mysql>
user mysql;
查看user表:
mysql> select +-------------------------------+------+ | +-------------------------------+------+ | 127.0.0.1 | | | | | +-------------------------------+------+ 6 rows in set (0.04 |
(2) 用脚本初始化权限
[hadoop@bigdata-senior03
yum.repos.d]$ sudo mysql_secure_installation
这种初始化方式只适合于MySql 5.6版本。
提示输入当前root密码,当前密码为空:Enter current password for root (enter for none):
提示是否设置root密码: Set
root password? [Y/n] y
提示是否移除匿名用户:Remove anonymous users? [Y/n] y
提示是否禁用root远程登录:Disallow root login remotely? [Y/n] n
提示是否移除test数据库:Remove
test database and access to it? [Y/n] n
提示是否重新加载权限:Reload privilege tables now? [Y/n] y
(3) 再次查看用户信息
用root和密码登录: [hadoop@bigdata-senior03
yum.repos.d]$ mysql -uroot -p123456
切换到mysql库: mysql> use mysql;
查看用户信息,已经有了密码,并且匿名用户已经被删除了。
mysql> select +-------------------------------+------+-------------------------------------------+ | host | +-------------------------------+------+-------------------------------------------+ | | bigdata-senior03.chybinmy.com | | +-------------------------------+------+-------------------------------------------+ 4 rows in set (0.00 |
(4) 给root设置所有权限
mysql> grant
all privileges on *.* to 'root'@'%' identified by '123456'with grant option;
刷新权限。
mysql> flush
privileges;
Query OK, 0 rows affected
(0.00 sec)
四、
在远程MySQL存储模式配置
hive 元数据存储在远程mysql数据库上,是通过MetaStore来进行访问的。所以要配置一个metastore服务。
配置好JAVA_HOME和HADOOP_HOME
配置了HADOOP_HOME参数后,hive就可以知道Hadoop在哪里,数据存储在哪里了。
(1) 将hive.metastore.uris属性设置为thrift://bigdata-senior03.chybinmy.com:9083
这个是设置metastore服务在哪个机器上,端口是什么。thrift是一种协议,用于不同语言程序间,利用RPC(远程过程调用)方式进行通讯。
(2) 修改javax.jdo.option.ConnectionURL属性为:jdbc:mysql://bigdata-senior03.chybinmy.com:3306/remote_db?createDatabaseIfNotExist=true
javax.jdo.option.ConnectionURL属性的默认值为:
derby是hive默认的存储元数据的数据库,一般不用这个数据库,用mysql数据库。
这个是配置mysql的连接字符串,bigdata-senior03.chybinmy.com是mysql所在的主机名,remote_db是存储元数据的数据块名,createDatabaseIfNotExist是指如果数据库不存在就自动创建。
(3) 修改javax.jdo.option.ConnectionDriverName
(4) 修改连接Mysql的用户名和密码
4、 拷贝mysql连接驱动包
metastore连接mysql需要有一个mysql连接驱动包,这里选择驱动包mysql-connector-java-5.1.26-bin.jar,将这个驱动包拷贝到hive根目录下的lib目录下。
[hadoop@bigdata-senior03 hive-0.13.1-cdh5.3.6]$ cp /opt/sofeware/mysql-connector-java-5.1.26-bin.jar /opt/modules/hive-0.13.1-cdh5.3.6/lib/
必须先启动metastore服务,再启动hive
[hadoop@bigdata-senior03
hive-0.13.1-cdh5.3.6]$ hive --service metastore
将metastore服务设置为守护进程
[hadoop@bigdata-senior03
hive-0.13.1-cdh5.3.6]$ nohup hive --service metastore >
hive_metastore.run.log 2>&1 &
start-dfs.sh
此时,执行hive客户端,访问的元数据就是通过metastore来访问mysql上存储的元数据了。
hive> use default;
hive> create table demo1 (id int,name string);
hive> show tables;
demo1
2、 HDFS查看数据
hive表的数据实际是存储在HDFS的指定目录下的一个文件。
六、
Hive常用语句
hive> create database testdb;
hive> show databases;
hive> use testdb;
hive> create table testtable (id int,name
string);
hive> show tables;
OK
demo1
创建一个本地文件/opt/data/test.txt,内容为和testtable表格式一致。
1^Asan 2^Asi 3^Awu 4^Awang 5^Ahan |
加载数据:
hive> load data local inpath
'/opt/data/test.txt' overwrite into table testtest;
(1) describe testtable; 是简单显示testtable表的元数据信息
(2) describe extended testtable; 是显示testtable表的扩展元数据信息。
(3) describe formatted testtable; 是格式化显示testtable表的元数据信息。
8、 查询数据
hive> select * from testtable;