Loader 使用文档

警告:

Loader 目前已经不再维护,其功能已经完全被 TiDB Lightning 的 TiDB backend 功能取代,强烈建议切换到 TiDB Lightning。

Loader 简介

Loader 是由 PingCAP 开发的数据导入工具,用于向 TiDB 中导入数据。

Loader 包含在 tidb-enterprise-tools 安装包中,可在此下载

为什么我们要做这个工具

当数据量比较大的时候,如果用 mysqldump 这样的工具迁移数据会比较慢。我们尝试了 Mydumper/myloader 套件,能够多线程导出和导入数据。在使用过程中,Mydumper 问题不大,但是 myloader 由于缺乏出错重试、断点续传这样的功能,使用起来很不方便。所以我们开发了 loader,能够读取 Mydumper 的输出数据文件,通过 MySQL protocol 向 TiDB/MySQL 中导入数据。

Loader 有哪些优点

  • 多线程导入
  • 支持表级别的并发导入,分散写入热点
  • 支持对单个大表并发导入,分散写入热点
  • 支持 Mydumper 数据格式
  • 出错重试
  • 断点续导
  • 通过 system variable 优化 TiDB 导入数据速度

使用方法

注意事项

请勿使用 loader 导入 MySQL 实例中 mysql 系统数据库到下游 TiDB。

如果 Mydumper 使用 -m 参数,会导出不带表结构的数据,这时 loader 无法导入数据。

如果使用默认的 checkpoint-schema 参数,在导完一个 database 数据库后,请 drop database tidb_loader 后再开始导入下一个 database。

推荐数据库开始导入的时候,明确指定 checkpoint-schema = "tidb_loader" 参数。

参数说明

  1. -L string
  2. log 级别设置,可以设置为 debug, info, warn, error, fatal (默认为 "info")
  3. -P int
  4. TiDB/MySQL 的端口 (默认为 4000)
  5. -V
  6. 打印 loader 版本
  7. -c string
  8. 指定配置文件启动 loader
  9. -checkpoint-schema string
  10. checkpoint 数据库名,loader 在运行过程中会不断的更新这个数据库,在中断并恢复后,会通过这个库获取上次运行的进度 (默认为 "tidb_loader")
  11. -d string
  12. 需要导入的数据存放路径 (default "./")
  13. -h string
  14. TiDB 服务 host IP (default "127.0.0.1")
  15. -p string
  16. TiDB 账户密码
  17. -status-addr string
  18. Prometheus 可以通过该地址拉取 Loader metrics, 也是 Loader pprof 调试地址 (默认为 ":8272")。
  19. -t int
  20. 线程数 (默认为 16). 每个线程同一时刻只能操作一个数据文件。
  21. -u string
  22. TiDB 的用户名 (默认为 "root")

配置文件

除了使用命令行参数外,还可以使用配置文件来配置,配置文件的格式如下:

  1. # 日志输出等级;可以设置为 debug, info, warn, error, fatal (默认为 "info")
  2. log-level = "info"
  3. # 指定 loader 日志目录
  4. log-file = "loader.log"
  5. # 需要导入的数据存放路径 (default "./")
  6. dir = "./"
  7. ## Prometheus 可以通过该地址拉取 Loader metrics, 也是 Loader 的 pprof 调试地址 (默认为 ":8272")。
  8. status-addr = ":8272"
  9. # checkpoint 数据库名,loader 在运行过程中会不断的更新这个数据库,在中断并恢复后,
  10. # 会通过这个库获取上次运行的进度 (默认为 "tidb_loader")
  11. checkpoint-schema = "tidb_loader"
  12. # 线程数 (默认为 16). 每个线程同一时刻只能操作一个数据文件。
  13. pool-size = 16
  14. # 目标数据库信息
  15. [db]
  16. host = "127.0.0.1"
  17. user = "root"
  18. password = ""
  19. port = 4000
  20. # 导入数据时数据库连接所使用的 session 级别的 `sql_mode`。如果 `sql-mode` 的值没有提供或者设置为 "@DownstreamDefault",会使用下游 global 级别的 `sql_mode`。
  21. # sql-mode = ""
  22. # `max-allowed-packet` 设置数据库连接允许的最大数据包大小,对应于系统参数中的 `max_allowed_packet`。 如果设置为 0,会使用下游数据库 global 级别的 `max_allowed_packet`。
  23. max-allowed-packet = 67108864
  24. # sharding 同步规则,采用 wildcharacter
  25. # 1\. 星号字符 (*) 可以匹配零个或者多个字符,
  26. # 例子, doc* 匹配 doc 和 document, 但是和 dodo 不匹配;
  27. # 星号只能放在 pattern 结尾,并且一个 pattern 中只能有一个
  28. # 2\. 问号字符 (?) 匹配任一一个字符
  29. # [[route-rules]]
  30. # pattern-schema = "shard_db_*"
  31. # pattern-table = "shard_table_*"
  32. # target-schema = "shard_db"
  33. # target-table = "shard_table"

使用示例

通过命令行参数:

  1. ./bin/loader -d ./test -h 127.0.0.1 -u root -P 4000

或者使用配置文件 “config.toml”:

  1. ./bin/loader -c=config.toml

FAQ

合库合表场景案例说明

根据配置文件的 route-rules 可以支持将分库分表的数据导入到同一个库同一个表中,但是在开始前需要检查分库分表规则:

  • 是否可以利用 route-rules 的语义规则表示
  • 分表中是否包含唯一递增主键,或者合并后是否包含数据上有冲突的唯一索引或者主键

Loader 需要配置文件中开启 route-rules 参数以提供合库合表功能

  • 如果使用该功能,必须填写 pattern-schematarget-schema
  • 如果 pattern-tabletarget-table 为空,将不进行表名称合并或转换
  1. [[route-rules]]
  2. pattern-schema = "example_db"
  3. pattern-table = "table_*"
  4. target-schema = "example_db"
  5. target-table = "table"

全量导入过程中遇到报错 packet for query is too large. Try adjusting the 'max_allowed_packet' variable

原因

  • MySQL client 和 MySQL/TiDB Server 都有 max_allowed_packet 配额的限制,如果在使用过程中违反其中任何一个 max_allowed_packet 配额,客户端程序就会收到对应的报错。目前最新版本的 Loader 和 TiDB Server 的默认 max_allowed_packet 配额都为 64M

    • 请使用最新版本,或者最新稳定版本的工具。下载页面
  • Loader 的全量数据导入处理模块不支持对 dump sqls 文件进行切分,原因是 Mydumper 采用了最简单的编码实现,正如 Mydumper 代码注释 /* Poor man's data dump code */ 所言。如果在 Loader 实现文件切分,那么需要在 TiDB parser 基础上实现一个完备的解析器才能正确的处理数据切分,但是随之会带来以下的问题:

    • 工作量大

    • 复杂度高,不容易保证正确性

    • 性能的极大降低

解决方案

  • 依据上面的原因,在代码层面不能简单的解决这个困扰,我们推荐的方式是:利用 Mydumper 提供的控制 Insert Statement 大小的功能 -s, --statement-size: Attempted size of INSERT statement in bytes, default 1000000

    依据默认的 --statement-size 设置,Mydumper 默认生成的 Insert Statement 大小会尽量接近在 1M 左右,使用默认值就可以确保绝大部分情况不会出现该问题。

    有时候在 dump 过程中会出现下面的 WARN log,但是这个报错不影响 dump 的过程,只是表达了 dump 的表可能是宽表。

    1. Row bigger than statement_size for xxx
  • 如果宽表的单行超过了 64M,那么需要修改以下两个配置,并且使之生效。

    • 在 TiDB Server 执行 set @@global.max_allowed_packet=134217728134217728 = 128M

    • 根据实际情况为 Loader 的配置文件中的 db 配置增加 max-allowed-packet=128M,然后重启进程或者任务