sqoop简单配置与使用

时间:2021-12-01 06:39:26

sqoop(sql-to-hadoop)   

Apache Sqoop是用来实现结构型数据(如关系数据库)和Hadoop之间进行数据迁移的工具。它充分利用了MapReduce的并行特点以批处理的方式加快数据的传输,同时也借助MapReduce实现了容错。

  可以把数据从hdfs倒到mysql
  也可以把数据从
  相当于把数据倒来倒去的工具,

sqoop支持的数据库:

Database

version

--direct support?

connect string matches

HSQLDB

1.8.0+

No

jdbc:hsqldb:*//

MySQL

5.0+

Yes

jdbc:mysql://

Oracle

10.2.0+

No

jdbc:oracle:*//

PostgreSQL

8.3+

Yes (import only)

jdbc:postgresql:/

配置

  1.开启zookeeper

  2.开启集群服务(hadoop等)
  3.上传sqoop并解压

  4.进入目录sqoop下的conf(cd sqoop-1.4.5-cdh5.3.6/conf/)

sqoop简单配置与使用

  5.cp sqoop-env-template.sh sqoop-env.sh

  6.rm -rf *.cmd

sqoop简单配置与使用

  7.修改sqoop-env.sh(HBASE暂时还没有学到,还没有配置,后续会配)

sqoop简单配置与使用

  8.拷贝jdbc驱动到sqoop的lib目录下

      (cp mysql-connector-java-5.1.27-bin.jar /opt/module/sqoop-1.4.5-cdh5.3.6/lib/)

  9.启动sqoop(在sqoop目录下)

    9.1 、bin/sqoop help

    9.2测试Sqoop是否能够连接成功( bin/sqoop list-databases --connect jdbc:mysql://hadoop201:3306/metastore --username root --password 123456)

      sqoop简单配置与使用

案例

一.使用sqoop将mysql中的数据导入到HDFS

1.确定Mysql服务的正常开启

2.在Mysql中创建一张表

    

mysql -uroot -p

mysql> show databses;
mysql> create database company;
mysql> use company;
mysql> create table staff(id int(4) primary key not null auto_increment,name varchar(255) not null,sex varchar(255) not null);
mysql> show tables;
mysql> insert into staff(name, sex) values('Thomas', 'Male');

3.操作数据

  3.1RDBMS --> HDFS

  使用Sqoop导入数据到HDFS

    A、全部导入

      1.现在hadoop下创建个文件夹(bin/hdfs dfs -mkdir /user/company)

      2.进入sqoop目录,执行

bin/sqoop import --connect jdbc:mysql://hadoop201:3306/company --username root --password 123456 --table staff --target-dir /user/company --delete-target-dir --num-mappers 1 --fields-terminated-by "\t"

      也可以写成这种形式(\为未写完换行)

                bin/sqoop import \
--connect jdbc:mysql://hadoop201:3306/company \
--username root \
--password 123456 \
--table staff \
--target-dir /user/company \
--delete-target-dir \ (如果目录存在则删除目录)
--num-mappers 1 \ (用几个mapper跑这个任务)
--fields-terminated-by "\t" (用什么分割)

     3.查看(在hadoop目录下    bin/hdfs dfs -cat /user/company/*)

      sqoop简单配置与使用

  B、根据查询语句结果导入

                 $ bin/sqoop import
--connect jdbc:mysql://hadoop201:3306/company
--username root
--password 123456
--target-dir /user/company
--delete-target-dir
--num-mappers 1
--fields-terminated-by "\t"
--query 'select name,sex from staff where id >= 2 and $CONDITIONS;'

  C、导入指定列

                             $ bin/sqoop import
--connect jdbc:mysql://hadoop201:3306/company
--username root
--password 123456
--target-dir /user/company
--delete-target-dir
--num-mappers 1
--fields-terminated-by "\t"
--columns id, sex
--table staff

  D、使用sqoop关键字筛选查询导入数据

                 $ bin/sqoop import
--connect jdbc:mysql://hadoop201:3306/company
--username root
--password 123456
--target-dir /user/company
--delete-target-dir
--num-mappers 1
--fields-terminated-by "\t"
--table staff
--where "id=3"

  3.2RDBMS --> Hive

    1.在hive中创建表(不需要提前创建表,会自动创建)

      1.1 在hive目录下  bin/hive

      1.2

hive (company)> create table staff_hive(id int, name string, sex string) row format delimited fields terminated by '\t';

sqoop简单配置与使用

  1.3向hive中导入数据

                $ bin/sqoop import
--connect jdbc:mysql://hadoop201:3306/company
--username root
--password 123456
--table staff
--num-mappers 1
--hive-import
--fields-terminated-by "\t"
--hive-overwrite
--hive-table company.staff_hive

   3.3Hive/HDFS --> MYSQL

  1、在Mysql中创建一张表(create table student(id int(4) primary key not null auto_increment,name varchar(255) not null,sex varchar(255) not null,class varchar(255) not null);)

sqoop简单配置与使用

  2.


                $ bin/sqoop export
--connect jdbc:mysql://hadoo201:3306/company
--username root
--password 123456
--table staff_mysql
--num-mappers 1
--export-dir /user/hive/warehouse/company.db/staff_hive
--input-fields-terminated-by "\t"