Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

时间:2022-12-08 10:52:26

前言

安装Apache Hive前提是要先安装hadoop集群,并且hive只需要在hadoop的namenode节点集群里安装即可,安装前需保证Hadoop已启(动文中用到了hadoop的hdfs命令)。

关于如何安装Hadoop集群请参照:CentOS7搭建Hadoop2.8.0集群及基础操作与测试

下载Apache Hadoop

下载

地址:http://hive.apache.org/downloads.html

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

wget http://mirrors.hust.edu.cn/apache/hive/hive-2.1.1/apache-hive-2.1.1-bin.tar.gz
解压
tar -zxvf apache-hive-2.1.1-bin.tar.gz
移动文件夹
mv apache-hive-2.1.1-bin /usr/local/hadoop/
配置环境变量

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

立即生效

source ~/.bashrc

修改配置

配置hive-site.xml

进入目录$HIVE_HOME/conf,将hive-default.xml.template文件复制一份并改名为hive-site.xml

#进入hive配置文件目录$HIVE_HOME/conf
cd $HIVE_HOME/conf
#拷贝并重命名
cp hive-default.xml.template hive-site.xml

因为

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

所以要让hadoop新建/user/hive/warehouse目录,执行命令:

$HADOOP_HOME/bin/hadoop fs -mkdir -p /user/hive/warehouse

给刚才新建的目录赋予读写权限,执行命令:

$HADOOP_HOME/bin/hadoop fs -chmod 777 /user/hive/warehouse 

让hadoop新建/tmp/hive/目录,执行命令:

$HADOOP_HOME/bin/hadoop fs -mkdir -p /tmp/hive/

给刚才新建的目录赋予读写权限,执行命令:

$HADOOP_HOME/bin/hadoop fs -chmod 777 /tmp/hive

检查hdfs目录是否创建成功

检查/user/hive/warehouse目录是否创建成功,执行命令:

$HADOOP_HOME/bin/hadoop  fs  -ls  /user/hive/

如图:

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

检查/tmp/hive是否创建成功,执行命令:

$HADOOP_HOME/bin/hadoop  fs  -ls /tmp/

如图:

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

修改hive-site.xml中的临时目录

将hive-site.xml文件中的${system:java.io.tmpdir}替换为hive的临时目录,例如我替换为 /usr/local/hadoop/apache-hive-2.1.1-bin/tmp,该目录如果不存在则要自己手工创建,并且赋予读写权限。

如图:

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

替换为

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

将${system:user.name}都替换为root

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

替换为

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

切记要全部替换,以上只为示例。

修改hive-site.xml数据库相关的配置

本文使用postgres数据库,如需了解请参照Linux安装postgresql及基础操作

搜索javax.jdo.option.ConnectionURL,将该name对应的value修改为Postgres的地址,例如我修改后是:

     <name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:postgresql://192.168.174.200:5432/postgres?charSet=utf-8</value> 搜索javax.jdo.option.ConnectionDriverName,将该name对应的value修改为MySQL驱动类路径,例如我的修改后是: <name>javax.jdo.option.ConnectionDriverName</name>
<value>org.postgresql.Driver</value> 搜索javax.jdo.option.ConnectionUserName,将对应的value修改为MySQL数据库登录名: <name>javax.jdo.option.ConnectionUserName</name> <value>postgre</value> 搜索javax.jdo.option.ConnectionPassword,将对应的value修改为MySQL数据库的登录密码: <name>javax.jdo.option.ConnectionPassword</name> <value>postgre</value> 搜索hive.metastore.schema.verification,将对应的value修改为false: <name>hive.metastore.schema.verification</name> <value>false</value>
上传postgres驱动包到lib目录

将postgres驱动包上载到Hive的lib目录下,例如我是上载到/usr/local/hadoop/apache-hive-2.1.1-bin/lib目录下。

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

新建hive-env.sh文件并进行修改

进入到/opt/hive/apache-hive-2.1.1-bin/conf目录,命令:

cd /opt/hive/apache-hive-2.1.1-bin/conf

将hive-env.sh.template文件复制一份,并且改名为hive-env.sh,命令:

cp hive-env.sh.template  hive-env.sh

打开hive-env.sh配置并且添加以下内容:

vim hive-env.sh
export HADOOP_HOME=/usr/local/hadoop/hadoop-2.8.0
export HIVE_CONF_DIR=/usr/local/hadoop/apache-hive-2.1.1-bin/conf
export HIVE_AUX_JARS_PATH=/usr/local/hadoop/apache-hive-2.1.1-bin/lib

启动与测试

对postgres数据库进行初始化

进入到hive的bin目录 执行命令:

cd /usr/local/hadoop/apache-hive-2.1.1-bin/bin

对数据库进行初始化,执行命令:

schematool -initSchema -dbType postgres

如图:

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

执行成功后,hive数据库里已经有一堆表创建好了

如图:

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

启动hive

进入到hive的bin目录执行命令:

cd /usr/local/hadoop/apache-hive-2.1.1-bin/bin

执行hive脚本进行启动,执行命令:

./hive

如图:

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

以上Hive配置完成

Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作的更多相关文章

  1. CentOS下Hadoop-2&period;2&period;0集群安装配置

    对于一个刚开始学习Spark的人来说,当然首先需要把环境搭建好,再跑几个例子,目前比较流行的部署是Spark On Yarn,作为新手,我觉得有必要走一遍Hadoop的集群安装配置,而不仅仅停留在本地 ...

  2. Linux下Hadoop2&period;6&period;0集群环境的搭建

    本文旨在提供最基本的,可以用于在生产环境进行Hadoop.HDFS分布式环境的搭建,对自己是个总结和整理,也能方便新人学习使用. 基础环境 JDK的安装与配置 现在直接到Oracle官网(http:/ ...

  3. hadoop2&period;20&period;0集群安装教程

    一.安装的需要软件及集群描述 1.软件: Vmware9.0:虚拟机 Hadoop2.2.0:Apache官网原版稳定版本 JDK1.7.0_07:Oracle官网版本 Ubuntu12.04LTS: ...

  4. hadoop2&period;2&period;0集群安装和配置

    hadoop2.0已经发布了稳定版本了,增加了很多特性,比如HDFS HA.YARN等. 注意:apache提供的hadoop-2.2.0的安装包是在32位操作系统编译的,因为hadoop依赖一些C+ ...

  5. hadoop2&period;2&period;0集群安装

    位说明. 位).Jdk使用的1.7(1.6也可以).网络配置好,相互可以ping通,java环境安装完毕.   第一部分 Hadoop 2.2 下载 位). 下载地址:http://apache.cl ...

  6. 最新版spark1&period;1&period;0集群安装配置

    和分布式文件系统和NoSQL数据库相比而言,spark集群的安装配置还算是比较简单的: 很多教程提到要安装java和scala,但我发现spark最新版本是包含scala的,JRE采用linux内嵌的 ...

  7. Ubuntu 14&period;04下Hadoop2&period;4&period;1集群安装配置教程

    一.环境 系统: Ubuntu 14.04 64bit Hadoop版本: hadoop 2.4.1 (stable) JDK版本: OpenJDK 7 台作为Master,另3台作为Slave. 所 ...

  8. linux 搭建elk6&period;8&period;0集群并破解安装x-pack

    一.环境信息以及安装前准备 1.组件介绍 *Filebeat是一个日志文件托运工具,在你的服务器上安装客户端后,filebeat会监控日志目录或者指定的日志文件,追踪读取这些文件(追踪文件的变化,不停 ...

  9. Ubuntu12&period;04-x64编译Hadoop2&period;2&period;0和安装Hadoop2&period;2&period;0集群

      本文Blog地址:http://www.cnblogs.com/fesh/p/3766656.html   本文对Hadoop-2.2.0源码进行重新编译(64位操作系统下不重新编译会有版本问题) ...

随机推荐

  1. Android近场通信---高级NFC(二)

    读写NFC标签 读写NFC标签,要涉及到从Intent对象中获取标签,并要打开与标签的通信.要读写NFC标签数据,你必须要定义自己的协议栈.但是,要记住在直接使用NFC标签工作时,你依然能够读写NDE ...

  2. SSH&lowbar;框架整合6--修改Edit员工信息

    SSH_框架整合6--修改Edit员工信息 1 加上修改Edit键 (1)emp-list.jsp <td> <a href="emp-input?id=${id }&qu ...

  3. Winsock IO模型之select模型

    之所以称其为select模型是因为它主要是使用select函数来管理I/O的.这个模型的设计源于UNIX系统,目的是允许那些想要避免在套接字调用上阻塞的应用程序有能力管理多个套接字. int sele ...

  4. php整理&lpar;三&rpar;&colon; 面向对象

    PHP学习(三)----面向对象   首先,还是建立一个好的理解模型: 1.什么是面向对象? 面向对象分为两个部分,那就是:什么是对象和什么是面向? 什么是对象: 对象的出现就是为了用代码更好的绘制我 ...

  5. OOP 6大基本原则

    1.开闭原则: 对扩展开发.对修改关闭. 2.里氏替换原则:子类替换父类(可以用父类对象的任何地方都可以用子类对象代替) 3.依赖倒置原则:程序要依赖于抽象接口,不要依赖于具体实现.简单的说就是要求对 ...

  6. C&num;敏感关键词过滤代码

    System.Text.StringBuilder sb = new System.Text.StringBuilder(text.Length);             string filter ...

  7. python 类属性、对象属性

    类的普通属性: dir(Myclass), 返回一个key列表: Myclass.__dir__,返回一个字典: 1.类的数据属性: 2.类的方法: 类的特殊属性: 1.Myclass.__name_ ...

  8. Mysql C语言API编程入门讲解

    原文:Mysql C语言API编程入门讲解 软件开发中我们经常要访问数据库,存取数据,之前已经有网友提出让鸡啄米讲讲数据库编程的知识,本文就详细讲解如何使用Mysql的C语言API进行数据库编程.   ...

  9. General Thread States

    对于实践中可能出现的各种General Thread States 以下列表描述了与常规查询处理关联的线程状态值,而不是更复杂的活动,例如复制. 其中许多仅用于在服务器中查找错误. after cre ...

  10. LeetCode Algorithm

    LeetCode Algorithm 原文出处:[LeetCode] 算法参考:[陈皓 coolshell] 1. Two Sum 3. Longest Substring Without Repea ...