数据迁移工具 - Sqoop_sqoop官网-程序员宅基地

技术标签: sqoop  hadoop  

一、Sqoop概述

        Sqoop是一款开源的工具,主要用于在hadoop(hive)与传统数据库(mysql、Oracle、postgresql)间进行数据的传递。可以将关系型数据库中的数据导入HDFS中,也可以将HDFS中的数据导入到关系型数据库中。
        
        将导入导出命令转换为MapReduce程序来实现。翻译出的MapReduce中主要是对inputformat和outputformat进行定制。

二、安装配置

        Sqoop 官网:http://sqoop.apache.org/
        Sqoop下载地址:http://www.apache.org/dyn/closer.lua/sqoop/

        1. 下载、上传并解压
        将下载的安装包 sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz 上传到虚拟机中;
        解压缩软件包;
        tar zxvf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz
        mv sqoop-1.4.7.bin__hadoop-2.6.0/ ../servers/sqoop-1.4.7/

        2. 增加环境变量、使之生效
        vi /etc/profile
        # 增加以下内容
        export SQOOP_HOME=/opt/lg/servers/sqoop-1.4.7
        export PATH=$PATH:$SQOOP_HOME/bin
        source /etc/profile

        3. 创建、修改配置文件
        # 配置文件位置 $SQOOP_HOME/conf;要修改的配置文件为 sqoop-env.sh
        cp sqoop-env-template.sh sqoop-env.sh
        vi sqoop-env.sh
        # 在文件最后增加以下内容
        export HADOOP_COMMON_HOME=/opt/lagou/servers/hadoop-2.9.2
        export HADOOP_MAPRED_HOME=/opt/lagou/servers/hadoop-2.9.2
        export HIVE_HOME=/opt/lagou/servers/hive-2.3.7

        4. 拷贝JDBC驱动
        # 拷贝jdbc驱动到sqoop的lib目录下(备注:建立软链接也可以)
        ln -s /opt/lagou/servers/hive-2.3.7/lib/mysql-connector-java-5.1.46.jar /opt/lagou/servers/sqoop-1.4.7/lib/

        5. 拷贝jar
        5.1 将 $HIVE_HOME/lib 下的 hive-common-2.3.7.jar,拷贝到 $SQOOP_HOME/lib目录下。如不拷贝在MySQL往Hive导数据的时候将会出现错误:ClassNotFoundException:org.apache.hadoop.hive.conf.HiveConf
        # 硬拷贝 和 建立软链接都可以,选择一个执行即可。下面是硬拷贝
        cp $HIVE_HOME/lib/hive-common-2.3.7.jar $SQOOP_HOME/lib/
        # 建立软链接
        ln -s /opt/lagou/servers/hive-2.3.7/lib/hive-common-2.3.7.jar /opt/lagou/servers/sqoop-1.4.7/lib/hive-common-2.3.7.jar
        5.2 将 $HADOOP_HOME/share/hadoop/tools/lib/json-20170516.jar 拷贝到
$SQOOP_HOME/lib/ 目录下;否则在创建sqoop job时会报:
java.lang.NoClassDefFoundError: org/json/JSONObject
        cp $HADOOP_HOME/share/hadoop/tools/lib/json-20170516.jar $SQOOP_HOME/lib/

        6. 安装验证
        sqoop version
        省略了警告 ... ...
        20/06/19 10:37:24 INFO sqoop.Sqoop: Running Sqoop version:1.4.7 Sqoop 1.4.7
        git commit id 2328971411f57f0cb683dfb79d19d4d19d185dd8 Compiled by maugli on Thu Dec 21 15:59:58 STD 2017
        # 测试Sqoop是否能够成功连接数据库
        sqoop list-databases --connect jdbc:mysql://linux123:3306/?useSSL=false --username hive --password 12345678
        ... ...
        information_schema
        hivemetadata
        mysql
        performance_schema
        sys

三、应用案例

        在Sqoop中
        导入:从关系型数据库向大数据集群(HDFS、HIVE、HBASE)传输数据;使用import关键字;
        导出:从大数据集群向关系型数据库传输数据;使用export关键字;

        测试数据脚本:
        -- 用于在 Mysql 中生成测试数据

-- 用于在 Mysql 中生成测试数据
CREATE DATABASE sqoop;

use sqoop;

CREATE TABLE sqoop.goodtbl(
gname varchar(50),
serialNumber int,
price int,
stock_number int,
create_time date);

DROP FUNCTION IF EXISTS `rand_string`;
DROP PROCEDURE IF EXISTS `batchInsertTestData`;

-- 替换语句默认的执行符号,将;替换成 //
DELIMITER //
CREATE FUNCTION `rand_string` (n INT) RETURNS VARCHAR(255)
CHARSET 'utf8'
BEGIN
 DECLARE char_str varchar(200) DEFAULT
'0123456789ABCDEFGHIJKLMNOPQRSTUVWXYZ';
 DECLARE return_str varchar(255) DEFAULT '';
 DECLARE i INT DEFAULT 0;
 WHILE i < n DO
    SET return_str = concat(return_str,
substring(char_str, FLOOR(1 + RAND()*36), 1));
    SET i = i+1;
 END WHILE;
 RETURN return_str;
END
//

-- 第一个参数表示:序号从几开始;第二个参数表示:插入多少条记录
CREATE PROCEDURE `batchInsertTestData` (m INT, n INT)
BEGIN
 DECLARE i INT DEFAULT 0;
 WHILE i < n DO
  insert into goodtbl (gname, serialNumber, price,
stock_number, create_time)
  values (rand_string(6), i+m, ROUND(RAND()*100),
FLOOR(RAND()*100), now());
SET i = i+1;
 END WHILE;
END
//
delimiter ;

call batchInsertTestData(1, 100);

        以下案例需要启动:HDFS、YARN、MYSQL对应的服务。

3.1 导入数据

        MySQL到HDFS
        1. 导入全部数据

sqoop import \
--connect jdbc:mysql://linux123:3306/sqoop \
--username hive \
--password 12345678 \
--table goodtbl \
--target-dir /root/lg \
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by "\t"

        target-dir:将数据导入HDFS的路径。
        delete-target-dir:如果目标文件夹在HDFS上已经存在,那么再次运行就会报错。可以使用delete-target-dir来先删除目录,也可以使用append参数,表示追加数据。
        num-mappers:启动多少个map task;默认启动4个map task;也可以写成 -m 1。
        fields-terminated-by:HDFS文件中数据的分隔符。 

      2. 导入查询数据 

sqoop import \
--connect jdbc:mysql://linux123:3306/sqoop \
--username hive \
--password 12345678 \
--target-dir /root/lg \
--append \
-m 1 \
--fields-terminated-by "\t" \
--query 'select gname, serialNumber, price, stock_number,create_time from goodtbl where price>88 and $CONDITIONS;'

        备注:
        查询语句的where子句中必须包含‘$CONDITIONS’;
        如果query后面使用的是双引号,则$CONDITION前必须加转义符,防止shell识别为自己的变量。 

        3. 导入指定的列

sqoop import \
--connect jdbc:mysql://linux123:3306/sqoop \
--username hive \
--password 12345678 \
--target-dir /root/lagou \
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by "\t" \
--columns gname,serialNumber,price \
--table goodtbl

        备注:columns中如果涉及到多列,用逗号分隔,不能加空格。

        4. 导入查询数据(使用关键字)

sqoop import \
--connect jdbc:mysql://linux123:3306/sqoop \
--username hive \
--password 12345678 \
--target-dir /root/lagou \
--delete-target-dir \
-m 1 \
--fields-terminated-by "\t" \
--table goodtbl \
--where "price>=68"

         5. 启动多个map task导入数据

        在 goodtbl 中增加数据:call batchInsertTestData(1000000);

sqoop import \
--connect jdbc:mysql://linux123:3306/sqoop \
--username hive \
--password 12345678 \
--target-dir /root/lagou \
--delete-target-dir \
--fields-terminated-by "\t" \
--table goodtbl \
--split-by gname

# 给 goodtbl 表增加主键
alter table goodtbl add primary key(serialNumber);

        备注:
        1. 使用多个map task进行数据导入时,sqoop要对每个task的数据进行分区
                如果MYSQL中的表有主键,指定map task的数量就行。
                如果MYSQL中的表有主键,要使用split-by指定分区字段。
                如果分区字段时字符类,使用sqoop命令的时候要添加
                        -
                        Dorg.apache.sqoop.splitter.allow_text_splitter=true。 
                即:
                sqoop import -
                Dorg.apache.sqoop.splitter.allow_text_splitter=true \
                --connect jdbc:mysql://liunx:3306/sqoop \

        2. 查询语句where子句中的‘$CONDITIONS’,也是为了做数据分区使用的,即使只有1个map task。

        MYSQL到Hive
        在hive中创建表:

CREATE TABLE mydb.goodtbl(
gname string,
serialNumber int,
price int,
stock_number int,
create_time date);
sqoop import \
--connect jdbc:mysql://linux123:3306/sqoop \
--username hive \
--password 12345678 \
--table goodtbl \
--hive-import \
--create-hive-table \
--hive-overwrite \
--hive-table mydb.goodtbl \
-m 1

        参数说明:
        hive-import:必须参数,指定导入hive。
        hive-database:hive库名(缺省值default)。
        hive-table:hive表名。
        fields-terminated-by:hive字段分隔符。
        hive-overwrite:覆盖已存在数据。
        create-hive-table:创建好 hive 表,但是表可能存在错误。不建议使用这个参数,建议提前建好表。

3.2 导出数据

        Hive/HDFS到RDBMS
        备注:MYSQL表需要提前创建
        # 提前创建表
        CREATE TABLE sqoop.goodtbl2(
        gname varchar(50),
        serialNumber int,
        price int,
        stock_number int,
        create_time date);

sqoop export \
--connect jdbc:mysql://linux123:3306/sqoop \
--username hive \
--password 12345678 \
--table goodtbl2 \
--num-mappers 1 \
--export-dir /user/hive/warehouse/mydb.db/goodtbl \
--input-fields-terminated-by "\t"

3.3 增量数据导入

        变化数据捕获(CDC)
        前面都是执行的全量数据导入。如果数据量很小,则采取全部源数据抽取;如果源数量量很大,则需要抽取发生变化的数据,这种数据抽取模式叫做变化数据捕获,简称CDC(Change Data Capture)。        
        CDC大致分为两种:侵入式非侵入式。侵入式是指CDC操作会给源系统带来性能影响,只要CDC以任何一种方式对源数据库执行了SQL操作,就认为是侵入式的。

        常用的4中CDC方法是(前三种是侵入式的):

       1. 基于时间戳的CDC:抽取过程中可以根据某些属性列来判断哪些数据时增量的,最常见的属性列有以下两种:        
                时间戳:最好有两个列,一个插入时间戳,表示何时创建;一个更新时间戳,表示最后一次更新时间;
                序列:大多数数据库都提供自增的功能,表中的列定义成自增的,很容易就根据该列识别出新插入的数据;
        时间戳的CDC是最简单最常用的,但有如下缺点:
                不能记录删除记录的操作;
                无法识别多次更新;
                不具有实时能力;

        2. 基于触发器的CDC:当执行INSERT、UPDATE、DELETE这些SQL语句时,触发数据库里的触发器,使用触发器可以捕获变更的数据,并把数据保存到中间历史表里。然后这些边恒数据再从临时表中取出。大多数情况下,不允许向操作型数据库添加触发器,且这种方法会降低系统性能,基本不会被采用;

        3. 基于快照的CDC:可以通过比较源表和快照表来获得数据变化。基于快照的CDC可以检测到插入、更新和删除的数据,这是相对于基于时间戳的CDC方案的优点。其缺点是需要大量的存储空间来保存快照;

        4. 基于日志的CDC:最复杂的和没有侵入性的CDC方法是基于日志的方式。数据库会把每个插入、更新、删除操作记录到日志里。解析日志文件,就可以获取相关信息。每个关系型数据库日志格式不一致,没有通用的产品。阿里巴巴的canal可以完成MySQL日志文件解析。

        增量导入数据分为两种方式:
        基于递增列的增量数据导入(Append方式)
        基于时间列的数据增量导入(LastModified方式)

3.3.1 Append方式

        1. 准备初始数据
                -- 删除 MySQL 表中的全部数据
                truncate table sqoop.goodtbl;
                -- 删除 Hive 表中的全部数据
                truncate table mydb.goodtbl;
                -- 向MySQL的表中插入100条数据
                call batchInsertTestData(1, 100);

        2. 将数据导入hive

sqoop import \
--connect jdbc:mysql://linux123:3306/sqoop \
--username hive --password 12345678 \
--table goodtbl \
--incremental append \
--hive-import \
--fields-terminated-by "\t" \
--hive-table mydb.goodtbl \
--check-column serialNumber \
--last-value 50 \
-m 1

        check-column:用来指定一些列(可以指定多个列),这些列在增量导入时用来检查这些数据是否作为增量数据进行导入,和关系型数据库中的自增字段及时间戳类似。这些被指定的列的类型不能使用任意字符类型,如char、varchar等类型都不可以。
        last-value:指定上一次导入中检查列指定字段最大值。

        3. 检查hive表中是否有数据

        4. 向MySQL 中加入1000条数据,编号从200开始: all batchInsertTestData(200, 1000); 

        5. 再次执行增量导入,将数据从MySQL导入Hive中;此时要将last-value改为100

sqoop import \
--connect jdbc:mysql://linux123:3306/sqoop \
--username hive --password 12345678 \
--table goodtbl \
--incremental append \
--hive-import \
--fields-terminated-by "\t" \
--hive-table mydb.goodtbl \
--check-column serialNumber \
--last-value 100 \
-m 1

        6. 检查hive表中是否有数据,有多少条数据。 

3.4 执行job 

        执行数据增量导入有两种实现方式:
                1. 每次手工配置last-value,收到调整。
                2. 使用job,给定初始last-value,定时任务每天定时调度。

        很明显使用2更方便:
        1. 创建口令文件
                echo -n "12345678" > sqoopPWD.pwd
                hdfs dfs -mkdir -p /sqoop/pwd
                hdfs dfs -put sqoopPWD.pwd /sqoop/pwd
                hdfs dfs -chmod 400 /sqoop/pwd/sqoopPWD.pwd
                # 可以在 sqoop 的 job 中增加:
                --password-file /sqoop/pwd/sqoopPWD.pwd

        2. 创建sqoop job

#创建sqoop job
sqoop job --create myjob1 -- import \
--connect jdbc:mysql://linux123:3306/sqoop?useSSL=false \
--username hive \
--password-file /sqoop/pwd/sqoopPWD.pwd \
--table goodtbl \
--incremental append \
--hive-import \
--hive-table mydb.goodtbl \
--check-column serialNumber \
--last-value 0 \
-m 1

# 查看已有的job
sqoop job --list
    
# 查看job的详细运行参数
sqoop job --show myjob1

# 执行job
sqoop job --exec myjob1

# 删除job
sqoop job --delete myjob1

        3. 执行job:sqoop job --exec myjob1

        4. 查看数据

        实现原理:因为job执行完成后,会把当前check-column的最大值记录到meta中,下次再调起时把此值赋给last-value。
        缺省情况下,元数据保存在 ~/.sqoop/
        其中,metastore.db.script文件记录了对last-value的更新操作。
               cat metastore.db.script |grep incremental.last.value

四、常用命令及参数

4.1 常用命令

        

4.2 常用参数

        所谓公用参数,就是大多数命令都支持的参数。

        1. 公用参数 - 数据库连接
        

        2. 公用参数 - import
        

         3. 公用参数 - export
        

         4. 公用参数 - hive
        

        5. import 参数
        
        

        6.  export参数
        

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/helloworld999999/article/details/121899570

智能推荐

稀疏编码的数学基础与理论分析-程序员宅基地

文章浏览阅读290次,点赞8次,收藏10次。1.背景介绍稀疏编码是一种用于处理稀疏数据的编码技术,其主要应用于信息传输、存储和处理等领域。稀疏数据是指数据中大部分元素为零或近似于零的数据,例如文本、图像、音频、视频等。稀疏编码的核心思想是将稀疏数据表示为非零元素和它们对应的位置信息,从而减少存储空间和计算复杂度。稀疏编码的研究起源于1990年代,随着大数据时代的到来,稀疏编码技术的应用范围和影响力不断扩大。目前,稀疏编码已经成为计算...

EasyGBS国标流媒体服务器GB28181国标方案安装使用文档-程序员宅基地

文章浏览阅读217次。EasyGBS - GB28181 国标方案安装使用文档下载安装包下载,正式使用需商业授权, 功能一致在线演示在线API架构图EasySIPCMSSIP 中心信令服务, 单节点, 自带一个 Redis Server, 随 EasySIPCMS 自启动, 不需要手动运行EasySIPSMSSIP 流媒体服务, 根..._easygbs-windows-2.6.0-23042316使用文档

【Web】记录巅峰极客2023 BabyURL题目复现——Jackson原生链_原生jackson 反序列化链子-程序员宅基地

文章浏览阅读1.2k次,点赞27次,收藏7次。2023巅峰极客 BabyURL之前AliyunCTF Bypassit I这题考查了这样一条链子:其实就是Jackson的原生反序列化利用今天复现的这题也是大同小异,一起来整一下。_原生jackson 反序列化链子

一文搞懂SpringCloud,详解干货,做好笔记_spring cloud-程序员宅基地

文章浏览阅读734次,点赞9次,收藏7次。微服务架构简单的说就是将单体应用进一步拆分,拆分成更小的服务,每个服务都是一个可以独立运行的项目。这么多小服务,如何管理他们?(服务治理 注册中心[服务注册 发现 剔除])这么多小服务,他们之间如何通讯?这么多小服务,客户端怎么访问他们?(网关)这么多小服务,一旦出现问题了,应该如何自处理?(容错)这么多小服务,一旦出现问题了,应该如何排错?(链路追踪)对于上面的问题,是任何一个微服务设计者都不能绕过去的,因此大部分的微服务产品都针对每一个问题提供了相应的组件来解决它们。_spring cloud

Js实现图片点击切换与轮播-程序员宅基地

文章浏览阅读5.9k次,点赞6次,收藏20次。Js实现图片点击切换与轮播图片点击切换<!DOCTYPE html><html> <head> <meta charset="UTF-8"> <title></title> <script type="text/ja..._点击图片进行轮播图切换

tensorflow-gpu版本安装教程(过程详细)_tensorflow gpu版本安装-程序员宅基地

文章浏览阅读10w+次,点赞245次,收藏1.5k次。在开始安装前,如果你的电脑装过tensorflow,请先把他们卸载干净,包括依赖的包(tensorflow-estimator、tensorboard、tensorflow、keras-applications、keras-preprocessing),不然后续安装了tensorflow-gpu可能会出现找不到cuda的问题。cuda、cudnn。..._tensorflow gpu版本安装

随便推点

物联网时代 权限滥用漏洞的攻击及防御-程序员宅基地

文章浏览阅读243次。0x00 简介权限滥用漏洞一般归类于逻辑问题,是指服务端功能开放过多或权限限制不严格,导致攻击者可以通过直接或间接调用的方式达到攻击效果。随着物联网时代的到来,这种漏洞已经屡见不鲜,各种漏洞组合利用也是千奇百怪、五花八门,这里总结漏洞是为了更好地应对和预防,如有不妥之处还请业内人士多多指教。0x01 背景2014年4月,在比特币飞涨的时代某网站曾经..._使用物联网漏洞的使用者

Visual Odometry and Depth Calculation--Epipolar Geometry--Direct Method--PnP_normalized plane coordinates-程序员宅基地

文章浏览阅读786次。A. Epipolar geometry and triangulationThe epipolar geometry mainly adopts the feature point method, such as SIFT, SURF and ORB, etc. to obtain the feature points corresponding to two frames of images. As shown in Figure 1, let the first image be ​ and th_normalized plane coordinates

开放信息抽取(OIE)系统(三)-- 第二代开放信息抽取系统(人工规则, rule-based, 先抽取关系)_语义角色增强的关系抽取-程序员宅基地

文章浏览阅读708次,点赞2次,收藏3次。开放信息抽取(OIE)系统(三)-- 第二代开放信息抽取系统(人工规则, rule-based, 先关系再实体)一.第二代开放信息抽取系统背景​ 第一代开放信息抽取系统(Open Information Extraction, OIE, learning-based, 自学习, 先抽取实体)通常抽取大量冗余信息,为了消除这些冗余信息,诞生了第二代开放信息抽取系统。二.第二代开放信息抽取系统历史第二代开放信息抽取系统着眼于解决第一代系统的三大问题: 大量非信息性提取(即省略关键信息的提取)、_语义角色增强的关系抽取

10个顶尖响应式HTML5网页_html欢迎页面-程序员宅基地

文章浏览阅读1.1w次,点赞6次,收藏51次。快速完成网页设计,10个顶尖响应式HTML5网页模板助你一臂之力为了寻找一个优质的网页模板,网页设计师和开发者往往可能会花上大半天的时间。不过幸运的是,现在的网页设计师和开发人员已经开始共享HTML5,Bootstrap和CSS3中的免费网页模板资源。鉴于网站模板的灵活性和强大的功能,现在广大设计师和开发者对html5网站的实际需求日益增长。为了造福大众,Mockplus的小伙伴整理了2018年最..._html欢迎页面

计算机二级 考试科目,2018全国计算机等级考试调整,一、二级都增加了考试科目...-程序员宅基地

文章浏览阅读282次。原标题:2018全国计算机等级考试调整,一、二级都增加了考试科目全国计算机等级考试将于9月15-17日举行。在备考的最后冲刺阶段,小编为大家整理了今年新公布的全国计算机等级考试调整方案,希望对备考的小伙伴有所帮助,快随小编往下看吧!从2018年3月开始,全国计算机等级考试实施2018版考试大纲,并按新体系开考各个考试级别。具体调整内容如下:一、考试级别及科目1.一级新增“网络安全素质教育”科目(代..._计算机二级增报科目什么意思

conan简单使用_apt install conan-程序员宅基地

文章浏览阅读240次。conan简单使用。_apt install conan