Linux端安装hive及其配置

时间:2024-03-20 10:09:03

Linux端安装hive及其配置



前提:

在安装Hive之前,要求先:(或者更高版本的都可以)

  • 安装JDK 7
  • 安装Hadoop-2.2.0
  • 安装MySQL 5.6.x
  • 关闭防火墙,然后启动集群/各个节点

参考文章:


一、安装

1. 下载hive最新的稳定版本的包,并解压缩到用户主目录下:
Linux端安装hive及其配置
tar -xzvf apache-hive-2.1.0-bin.tar.gz
Linux端安装hive及其配置
2. 改名:

mv apache-hive-2.1.0-bin hive
Linux端安装hive及其配置
(再把原压缩包删除即可)

3. 设置环境变量:

先进入修改配置文件:

sudo vim /etc/profile

在文件的最后,添加如下两句:

export  HIVE_HOME=/home/dog/hive
export  PATH=$HIVE_HOME/bin:$PATH

Linux端安装hive及其配置

然后执行保存配置文件:

source /etc/profile

二、配置管理

  • 首先进入conf目录把所有带template后缀的文件移除后缀。
    Linux端安装hive及其配置
  • 其中hive-default.xml移除后缀后,需要修改名为hive-site.xml。
    Linux端安装hive及其配置

1. 可通过以下方法对Hive进行配置:

1.1 修改hive-env.sh

因为Hive使用了 Hadoop, 需要在 hive-env.sh 文件中指定 Hadoop 安装路径:

vim hive-env.sh

在打开的配置文件中,添加如下几行:

export JAVA_HOME=/home/dog/software/jdk
export HADOOP_HOME=/home/dog/software/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HIVE_HOME=/home/dog/hive
export HIVE_CONF_DIR=$HIVE_HOME/conf
export HIVE_AUX_JARS_PATH=$HIVE_HOME/lib

Linux端安装hive及其配置

1.2 修改hive-log4j2.properties,配置hive的log

vim hive-log4j2.properties 

配置下面的参数(如果没有logs目录,在hive根目录下创建它):

property.hive.log.dir=/home/dog/hive/logs 

Linux端安装hive及其配置
1.3 在/home/dog/hive/下新建一个tmp目录,在tmp/下新建一个dog目录。

cd /home/dog/hive
mkdir tmp
mkdir tmp/dog

Linux端安装hive及其配置
1.4 修改hive-site.xml
cd hive/conf
vim hive-site-xml

将hive-site.xml文件中:

  • 凡是${system:java.io.tmpdir}都替换成:

/home/dog/hive/tmp

  • 凡是${system:user.name}都替换为dog
    (参考hive-site2.xml)
  • 这里需要修改的地方比较多,后续提供配置文件。

1.5 配置Hive Metastore

  • 默认情况下, Hive的元数据保存在了内嵌的derby数据库里, 但一般情况下生产环境使用MySQL来存放Hive元数据。

1)将 mysql-connector-java-5.1.40.jar 放入 $HIVE_HOME/lib 下。(mysql jdbc驱动程序)后续提供。

2)hive-site.xml 中配置 MySQL 数据库连接信息:


三、为Hive创建HDFS目录

1.必须先安装了Hadoop,并配置了HADOOP_HOME环境变量。

2.在Hive中创建表之前

  • 需要在HDFS上创建目录/tmp/hive和/user/dog/warehouse,并给它们赋予写权限。
  • 在HDFS中将它们设为chmod 777,然后才可以在Hive中创建表:

$HADOOP_HOME/bin/hdfs dfs -mkdir /tmp
$HADOOP_HOME/bin/hdfs dfs -mkdir /tmp/hive
$HADOOP_HOME/bin/hdfs dfs -mkdir /user/dog/warehouse
Linux端安装hive及其配置
在浏览器中查看hdfs上的文件:(IP:50070,请参考伪分布模式集群模式
Linux端安装hive及其配置

用户组加写权限
$HADOOP_HOME/bin/hdfs dfs -chmod -R 777 /tmp
$HADOOP_HOME/bin/hdfs dfs -chmod -R 777 /user/dog/warehouse
Linux端安装hive及其配置


四、运行

1.运行Hive CLI:

  • 在命令行运行hive命令时必须保证HDFS已经启动。可以使用start-dfs.sh来启动HDFS。 (特别说明:从 Hive 2.1 版本开始, 在第一次运行hive之前,需要先运行schematool命令来执行初始化操作。)
  • 如果是使用MySQL数据库,先启动mysql服务器:

cd /usr/local/mysql
sudo ./support-files/mysql.server start
Linux端安装hive及其配置

  • 执行初始化操作

schematool -initSchema -dbType mysql
Linux端安装hive及其配置
执行成功后,可以查看MySQL中元数据库hive是否已经创建成功。
Linux端安装hive及其配置

  • 进入hive命令行:

hive
Linux端安装hive及其配置

  • 使用 show tables 来显示所有的表:

hive> show tables;
Linux端安装hive及其配置

  • 退出hive

hive> quit;
Linux端安装hive及其配置

  • 注意:每次启动hive之前都要保证集群(各个节点)MySQL服务器启动。

--->有问题请联系QQ1436281495^_^