用sqoop将mysql的数据导入到hive表中

时间:2024-05-29 08:35:26

1:先将mysql一张表的数据用sqoop导入到hdfs中

准备一张表

用sqoop将mysql的数据导入到hive表中

用sqoop将mysql的数据导入到hive表中

需求 将 bbs_product 表中的前100条数据导 导出来  只要id  brand_id和 name 这3个字段

数据存在 hdfs 目录   /user/xuyou/sqoop/imp_bbs_product_sannpy_  下

bin/sqoop import \
--connect jdbc:mysql://172.16.71.27:3306/babasport \
--username root \
--password root \
--query 'select id, brand_id,name from bbs_product where $CONDITIONS LIMIT 100' \
--target-dir /user/xuyou/sqoop/imp_bbs_product_sannpy_ \
--delete-target-dir \
--num-mappers 1 \
--compress \
--compression-codec org.apache.hadoop.io.compress.SnappyCodec \
--fields-terminated-by '\t'

用sqoop将mysql的数据导入到hive表中

ps: 如果导出的数据库是mysql  则可以添加一个 属性  --direct

 bin/sqoop import \
--connect jdbc:mysql://172.16.71.27:3306/babasport \
--username root \
--password root \
--query 'select id, brand_id,name from bbs_product where $CONDITIONS LIMIT 100' \
--target-dir /user/xuyou/sqoop/imp_bbs_product_sannpy_ \
--delete-target-dir \
--num-mappers 1 \
--compress \
--compression-codec org.apache.hadoop.io.compress.SnappyCodec \
--direct \
--fields-terminated-by '\t'

加了 direct 属性在导出mysql数据库表中的数据会快一点 执行的是mysq自带的导出功能

第一次执行所需要的时间

用sqoop将mysql的数据导入到hive表中

第二次执行所需要的时间 (加了direct属性)

用sqoop将mysql的数据导入到hive表中

执行成功

用sqoop将mysql的数据导入到hive表中

2:启动hive 在hive中创建一张表

 drop table if exists default.hive_bbs_product_snappy ;
create table default.hive_bbs_product_snappy(
 id int,
 brand_id int,
name string
)
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' ;

用sqoop将mysql的数据导入到hive表中

3:将hdfs中的数据导入到hive中

 load data inpath '/user/xuyou/sqoop/imp_bbs_product_sannpy_' into table default.hive_bbs_product_snappy ;

用sqoop将mysql的数据导入到hive表中

4:查询  hive_bbs_product_snappy 表

 select * from hive_bbs_product_snappy;

用sqoop将mysql的数据导入到hive表中

此时hdfs 中原数据没有了

用sqoop将mysql的数据导入到hive表中

然后进入hive的hdfs存储位置发现

用sqoop将mysql的数据导入到hive表中

注意 :sqoop 提供了 直接将mysql数据 导入 hive的 功能  底层 步骤就是以上步骤

创建一个文件  touch test.sql     编辑文件  vi test.sql

 use default;
drop table if exists default.hive_bbs_product_snappy ;
create table default.hive_bbs_product_snappy(
id int,
brand_id int,
name string
)
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' ;

用sqoop将mysql的数据导入到hive表中

在 启动hive的时候 执行 sql脚本

bin/hive -f /opt/cdh-5.3.6/sqoop-1.4.5-cdh5.3.6/test.sql

用sqoop将mysql的数据导入到hive表中

用sqoop将mysql的数据导入到hive表中

执行sqoop直接导入hive的功能

 bin/sqoop import \
--connect jdbc:mysql://172.16.71.27:3306/babasport \
--username root \
--password root \
--table bbs_product \
--fields-terminated-by '\t' \
--delete-target-dir \
--num-mappers 1 \
--hive-import \
--hive-database default \
--hive-table hive_bbs_product_snappy

看日志输出可以看出 在执行map任务之后 又执行了load data

用sqoop将mysql的数据导入到hive表中

查询 hive 数据

用sqoop将mysql的数据导入到hive表中