使用 Dumpling 导出或备份 TiDB 数据

本文档介绍如何使用数据导出工具 Dumpling。该工具可以把存储在 TiDB 中的数据导出为 SQL 或者 CSV 格式,可以用于完成逻辑上的全量备份或者导出。

如果需要直接备份 SST 文件(KV 对)或者对延迟不敏感的增量备份,请参阅 BR。如果需要实时的增量备份,请参阅 TiCDC

使用 Dumpling 时,需要在已经启动的集群上执行导出命令。本文假设在 127.0.0.1:4000 有一个 TiDB 实例,并且这个 TiDB 实例中有无密码的 root 用户。

从 TiDB 导出数据

使用如下命令导出数据:

  1. dumpling \
  2. -u root \
  3. -P 4000 \
  4. -H 127.0.0.1 \
  5. --filetype sql \
  6. --threads 32 \
  7. -o /tmp/test \
  8. -F $(( 1024 * 1024 * 256 ))

上述命令中,-H-P-u 分别是地址,端口,用户。如果需要密码验证,可以用 -p $YOUR_SECRET_PASSWORD 传给 Dumpling。

默认情况下,除了系统数据库中的表之外,Dumpling 会导出整个数据库的表。你可以使用 --where <SQL where expression> 来选定要导出的记录。假如导出数据的格式是 CSV(使用 --filetype csv 即可导出 CSV 文件),还可以使用 --sql <SQL> 导出指定 SQL 选择出来的记录,例如,导出 test.sbtest1 中所有 id < 100 的记录:

  1. ./dumpling \
  2. -u root \
  3. -P 4000 \
  4. -H 127.0.0.1 \
  5. -o /tmp/test \
  6. --filetype csv \
  7. --sql "select * from `test`.`sbtest1` where id < 100"

注意,--sql 选项暂时仅仅可用于导出 csv 的场景。但是仍旧可以用 --where 来过滤要导出的行,使用以下指令,可以导出所有 id < 100 的记录:

注意:

这里需要在要导出的所有表上执行 select * from <table-name> where id < 100 语句。如果部分表没有指定的字段,那么导出会失败。

  1. ./dumpling \
  2. -u root \
  3. -P 4000 \
  4. -H 127.0.0.1 \
  5. -o /tmp/test \
  6. --where "id < 100"

注意:

目前 Dumpling 不支持仅导出用户指定的某几张表(即 -T 标志,见这个 issue)。如果你确实需要这些功能,可以先使用 MyDumper

默认情况下,导出的文件会存储到 ./export-<current local time> 目录下。常用参数如下:

  • -o 用于选择存储导出文件的目录。
  • -F 选项用于指定单个文件的最大大小(和 MyDumper 不同,这里的单位是字节)。
  • -r 选项用于指定单个文件的最大记录数(或者说,数据库中的行数)。

利用以上参数可以让 Dumpling 的并行度更高。

还有一个尚未在上面展示出来的标志是 --consistency <consistency level>,这个标志控制导出数据“一致性保证”的方式。对于 TiDB 来说,默认情况下,会通过获取某个时间戳的快照来保证一致性(即 --consistency snapshot)。在使用 snapshot 来保证一致性的时候,可以使用 --snapshot 参数指定要备份的时间戳。还可以使用以下的一致性级别:

  • flush:使用 FLUSH TABLES WITH READ LOCK 来保证一致性。
  • snapshot:获取指定时间戳的一致性快照并导出。
  • lock:为待导出的所有表上读锁。
  • none:不做任何一致性保证。
  • auto:对 MySQL 使用 flush,对 TiDB 使用 snapshot

一切完成之后,你应该可以在 /tmp/test 看到导出的文件了:

  1. $ ls -lh /tmp/test | awk '{print $5 "\t" $9}'
  2. 140B metadata
  3. 66B test-schema-create.sql
  4. 300B test.sbtest1-schema.sql
  5. 190K test.sbtest1.0.sql
  6. 300B test.sbtest2-schema.sql
  7. 190K test.sbtest2.0.sql
  8. 300B test.sbtest3-schema.sql
  9. 190K test.sbtest3.0.sql

另外,假如数据量非常大,可以提前调长 GC 时间,以避免因为导出过程中发生 GC 导致导出失败:

  1. update mysql.tidb set VARIABLE_VALUE = '720h' where VARIABLE_NAME = 'tikv_gc_life_time';

在操作结束之后,再将 GC 时间调回原样(默认是 10m):

  1. update mysql.tidb set VARIABLE_VALUE = '10m' where VARIABLE_NAME = 'tikv_gc_life_time';

最后,所有的这些导出数据都可以用 Lightning 导入回 TiDB。