从 Amazon Aurora MySQL 迁移数据

本文介绍如何使用 DM 从 Amazon Aurora MySQL 迁移数据到 TiDB。

第 1 步:在 Aurora 集群中启用 binlog

假设有两个 Aurora 集群需要迁移数据到 TiDB,其集群信息如下,其中 Aurora-1 包含一个独立的读取器节点。

集群 终端节点 端口 角色
Aurora-1 pingcap-1.h8emfqdptyc4.us-east-2.rds.amazonaws.com 3306 写入器
Aurora-1 pingcap-1-us-east-2a.h8emfqdptyc4.us-east-2.rds.amazonaws.com 3306 读取器
Aurora-2 pingcap-2.h8emfqdptyc4.us-east-2.rds.amazonaws.com 3306 写入器

DM 在增量同步阶段依赖 ROW 格式的 binlog,如果未启用 binlog 及设置正确的 binlog 格式,则不能正常使用 DM 进行数据同步,具体可参见检查内容

注意:

Aurora 读取器不能开启 binlog,因此不能作为 DM 数据迁移时的上游 master server。

如果需要基于 GTID 进行数据迁移,还需要为 Aurora 集群启用 GTID 支持。

注意:

基于 GTID 的数据迁移需要 MySQL 5.7 (Aurora 2.04.1) 或更高版本。

为 Aurora 集群修改 binlog 相关参数

在 Aurora 集群中,binlog 相关参数是集群参数组中的集群级参数,有关如何为 Aurora 集群启用 binlog 支持,请参考在复制主实例上启用二进制日志记录。在使用 DM 进行数据迁移时,需要将 binlog_format 参数设置为 ROW

如果需要基于 GTID 进行数据迁移,需要将 gtid-modeenforce_gtid_consistency 均设置为 ON。有关如何为 Aurora 集群启用基于 GTID 的数据迁移支持,请参考 Configuring GTID-Based Replication for an Aurora MySQL Cluster

注意:

在 Aurora 管理后台中,gtid_mode 参数表示为 gtid-mode

第 2 步:部署 DM 集群

目前推荐使用 DM-Ansible 部署 DM 集群,具体部署方法参照使用 DM-Ansible 部署 DM 集群

注意:

  • 在 DM 所有的配置文件中,数据库的密码要使用 dmctl 加密后的密文。如果数据库密码为空,则不需要加密。关于如何使用 dmctl 加密明文密码,参考使用 dmctl 加密上游 MySQL 用户密码
  • 上下游数据库用户必须拥有相应的读写权限。

第 3 步:检查集群信息

使用 DM-Ansible 部署 DM 集群后,相关配置信息如下:

  • DM 集群相关组件配置信息

    | 组件 | 主机 | 端口 | |:|:- |:- | | dm_worker1 | 172.16.10.72 | 8262 | | dm_worker2 | 172.16.10.73 | 8262 | | dm_master | 172.16.10.71 | 8261 |

  • 上下游数据库实例相关信息

数据库实例 主机 端口 用户名 加密密码
上游 Aurora-1 pingcap-1.h8emfqdptyc4.us-east-2.rds.amazonaws.com 3306 root VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=
上游 Aurora-2 pingcap-2.h8emfqdptyc4.us-east-2.rds.amazonaws.com 3306 root VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=
下游 TiDB 172.16.10.83 4000 root
  • dm-master 进程配置文件 {ansible deploy}/conf/dm-master.toml 中的配置

    1. # Master 配置。
    2. [[deploy]]
    3. source-id = "mysql-replica-01"
    4. dm-worker = "172.16.10.72:8262"
    5. [[deploy]]
    6. source-id = "mysql-replica-02"
    7. dm-worker = "172.16.10.73:8262"

第 4 步:配置任务

假设需要将 Aurora-1 和 Aurora-2 实例的 test_db 库的 test_table 表以全量+增量的模式同步到下游 TiDB 的 test_db 库的 test_table 表。

复制并编辑 {ansible deploy}/conf/task.yaml.example,生成如下任务配置文件 task.yaml

  1. # 任务名,多个同时运行的任务不能重名。
  2. name: "test"
  3. # 全量+增量 (all) 同步模式。
  4. task-mode: "all"
  5. # 下游 TiDB 配置信息。
  6. target-database:
  7. host: "172.16.10.83"
  8. port: 4000
  9. user: "root"
  10. password: ""
  11. # 当前数据同步任务需要的全部上游 MySQL 实例配置。
  12. mysql-instances:
  13. -
  14. # 上游实例或者复制组 ID,参考 `inventory.ini` 的 `source_id` 或者 `dm-master.toml` 的 `source-id 配置`。
  15. source-id: "mysql-replica-01"
  16. # 需要同步的库名或表名的黑白名单的配置项名称,用于引用全局的黑白名单配置,全局配置见下面的 `black-white-list` 的配置。
  17. black-white-list: "global"
  18. # mydumper 的配置项名称,用于引用全局的 mydumper 配置。
  19. mydumper-config-name: "global"
  20. -
  21. source-id: "mysql-replica-02"
  22. black-white-list: "global"
  23. mydumper-config-name: "global"
  24. # 黑白名单全局配置,各实例通过配置项名引用。
  25. black-white-list:
  26. global:
  27. do-tables: # 需要同步的上游表的白名单。
  28. - db-name: "test_db" # 需要同步的表的库名。
  29. tbl-name: "test_table" # 需要同步的表的名称。
  30. # mydumper 全局配置,各实例通过配置项名引用。
  31. mydumpers:
  32. global:
  33. extra-args: "-B test_db -T test_table" # 只导出 `test_db` 库中的 `test_table` 表,可设置 mydumper 的任何参数。

第 5 步:启动任务

  1. 进入 dmctl 目录 /home/tidb/dm-ansible/resources/bin/

  2. 执行以下命令启动 dmctl

    1. ./dmctl --master-addr 172.16.10.71:8261
  3. 执行以下命令启动数据同步任务

    1. # `task.yaml` 是之前编辑的配置文件
    2. start-task ./task.yaml
    • 如果执行命令后的返回结果中不包含错误信息,则表明任务已经成功启动
    • 如果包含以下错误信息,则表明上游 Aurora 用户可能拥有 TiDB 不支持的权限类型

      1. {
      2. "id": 4,
      3. "name": "source db dump privilege chcker",
      4. "desc": "check dump privileges of source DB",
      5. "state": "fail",
      6. "errorMsg": "line 1 column 285 near \"LOAD FROM S3, SELECT INTO S3 ON *.* TO 'root'@'%' WITH GRANT OPTION\" ...",
      7. "instruction": "",
      8. "extra": "address of db instance - pingcap-1.h8emfqdptyc4.us-east-2.rds.amazonaws.com"
      9. },
      10. {
      11. "id": 5,
      12. "name": "source db replication privilege chcker",
      13. "desc": "check replication privileges of source DB",
      14. "state": "fail",
      15. "errorMsg": "line 1 column 285 near \"LOAD FROM S3, SELECT INTO S3 ON *.* TO 'root'@'%' WITH GRANT OPTION\" ...",
      16. "instruction": "",
      17. "extra": "address of db instance - pingcap-1.h8emfqdptyc4.us-east-2.rds.amazonaws.com"
      18. }

      此时可以选择以下两种处理方法中的任意一种进行处理后,再使用 start-task 尝试重新启动任务:

      1. 为用于进行数据迁移的 Aurora 用户移除不被 TiDB 支持的不必要的权限
      2. 如果能确保 Aurora 用户拥有 DM 所需要的权限,可以在 task.yaml 配置文件中添加如下顶级配置项以跳过启用任务时的前置权限检查
        1. ignore-checking-items: ["dump_privilege", "replication_privilege"]

第 6 步:查询任务

如需了解 DM 集群中是否存在正在运行的同步任务及任务状态等信息,可在 dmctl 内使用以下命令进行查询:

  1. query-status

注意:

如果查询命令的返回结果中包含以下错误信息,则表明在全量同步的 dump 阶段不能获得相应的 lock:

  1. Couldn't acquire global lock, snapshots will not be consistent: Access denied for user 'root'@'%' (using password: YES)

此时如果能接受不使用 FTWL 来确保 dump 文件与 metadata 的一致或上游能暂时停止写入,可以通过为 mydumpers 下的 extra-args 添加 --no-locks 参数来进行绕过,具体方法为:

  1. 使用 stop-task 停止当前由于不能正常 dump 而已经转为 paused 的任务
  2. 将原 task.yaml 中的 extra-args: "-B test_db -T test_table" 更新为 extra-args: "-B test_db -T test_table --no-locks"
  3. 使用 start-task 重新启动任务