Sqoop 简介与安装

一、Sqoop 简介

Sqoop 是一个常用的数据迁移工具,主要用于在不同存储系统之间实现数据的导入与导出:

  • 导入数据:从 MySQL,Oracle 等关系型数据库中导入数据到 HDFS、Hive、HBase 等分布式文件存储系统中;

  • 导出数据:从 分布式文件系统中导出数据到关系数据库中。

其原理是将执行命令转化成 MapReduce 作业来实现数据的迁移,如下图:

Sqoop 简介与安装 - 图1

二、安装

版本选择:目前 Sqoop 有 Sqoop 1 和 Sqoop 2 两个版本,但是截至到目前,官方并不推荐使用 Sqoop 2,因为其与 Sqoop 1 并不兼容,且功能还没有完善,所以这里优先推荐使用 Sqoop 1。

Sqoop 简介与安装 - 图2

2.1 下载并解压

下载所需版本的 Sqoop ,这里我下载的是 CDH 版本的 Sqoop 。下载地址为:http://archive.cloudera.com/cdh5/cdh/5/

  1. # 下载后进行解压
  2. tar -zxvf sqoop-1.4.6-cdh5.15.2.tar.gz

2.2 配置环境变量

  1. # vim /etc/profile

添加环境变量:

  1. export SQOOP_HOME=/usr/app/sqoop-1.4.6-cdh5.15.2
  2. export PATH=$SQOOP_HOME/bin:$PATH

使得配置的环境变量立即生效:

  1. # source /etc/profile

2.3 修改配置

进入安装目录下的 conf/ 目录,拷贝 Sqoop 的环境配置模板 sqoop-env.sh.template

  1. # cp sqoop-env-template.sh sqoop-env.sh

修改 sqoop-env.sh,内容如下 (以下配置中 HADOOP_COMMON_HOMEHADOOP_MAPRED_HOME 是必选的,其他的是可选的):

  1. # Set Hadoop-specific environment variables here.
  2. #Set path to where bin/hadoop is available
  3. export HADOOP_COMMON_HOME=/usr/app/hadoop-2.6.0-cdh5.15.2
  4. #Set path to where hadoop-*-core.jar is available
  5. export HADOOP_MAPRED_HOME=/usr/app/hadoop-2.6.0-cdh5.15.2
  6. #set the path to where bin/hbase is available
  7. export HBASE_HOME=/usr/app/hbase-1.2.0-cdh5.15.2
  8. #Set the path to where bin/hive is available
  9. export HIVE_HOME=/usr/app/hive-1.1.0-cdh5.15.2
  10. #Set the path for where zookeper config dir is
  11. export ZOOCFGDIR=/usr/app/zookeeper-3.4.13/conf

2.4 拷贝数据库驱动

将 MySQL 驱动包拷贝到 Sqoop 安装目录的 lib 目录下, 驱动包的下载地址为 https://dev.mysql.com/downloads/connector/j/ 。在本仓库的resources 目录下我也上传了一份,有需要的话可以自行下载。

Sqoop 简介与安装 - 图3

2.5 验证

由于已经将 sqoop 的 bin 目录配置到环境变量,直接使用以下命令验证是否配置成功:

  1. # sqoop version

出现对应的版本信息则代表配置成功:

Sqoop 简介与安装 - 图4

这里出现的两个 Warning 警告是因为我们本身就没有用到 HCatalogAccumulo,忽略即可。Sqoop 在启动时会去检查环境变量中是否有配置这些软件,如果想去除这些警告,可以修改 bin/configure-sqoop,注释掉不必要的检查。

  1. # Check: If we can't find our dependencies, give up here.
  2. if [ ! -d "${HADOOP_COMMON_HOME}" ]; then
  3. echo "Error: $HADOOP_COMMON_HOME does not exist!"
  4. echo 'Please set $HADOOP_COMMON_HOME to the root of your Hadoop installation.'
  5. exit 1
  6. fi
  7. if [ ! -d "${HADOOP_MAPRED_HOME}" ]; then
  8. echo "Error: $HADOOP_MAPRED_HOME does not exist!"
  9. echo 'Please set $HADOOP_MAPRED_HOME to the root of your Hadoop MapReduce installation.'
  10. exit 1
  11. fi
  12. ## Moved to be a runtime check in sqoop.
  13. if [ ! -d "${HBASE_HOME}" ]; then
  14. echo "Warning: $HBASE_HOME does not exist! HBase imports will fail."
  15. echo 'Please set $HBASE_HOME to the root of your HBase installation.'
  16. fi
  17. ## Moved to be a runtime check in sqoop.
  18. if [ ! -d "${HCAT_HOME}" ]; then
  19. echo "Warning: $HCAT_HOME does not exist! HCatalog jobs will fail."
  20. echo 'Please set $HCAT_HOME to the root of your HCatalog installation.'
  21. fi
  22. if [ ! -d "${ACCUMULO_HOME}" ]; then
  23. echo "Warning: $ACCUMULO_HOME does not exist! Accumulo imports will fail."
  24. echo 'Please set $ACCUMULO_HOME to the root of your Accumulo installation.'
  25. fi
  26. if [ ! -d "${ZOOKEEPER_HOME}" ]; then
  27. echo "Warning: $ZOOKEEPER_HOME does not exist! Accumulo imports will fail."
  28. echo 'Please set $ZOOKEEPER_HOME to the root of your Zookeeper installation.'
  29. fi