title: Backup & Restore 常见问题 summary: BR 相关的常见问题以及解决方法。

Backup & Restore 常见问题

本文列出了在使用 Backup & Restore (BR) 时,可能会遇到的问题及相应的解决方法。

如果遇到未包含在此文档且无法解决的问题,可以在 AskTUG 社区中提问。

恢复的时候,报错 could not read local://...:download sst failed,该如何处理?

在恢复的时候,每个节点都必须能够访问到所有的备份文件 (SST files),默认情况下,假如使用 local storage,备份文件会分散在各个节点中,此时是无法直接恢复的,必须将每个 TiKV 节点的备份文件拷贝到其它所有 TiKV 节点才能恢复。

建议在备份的时候挂载一块 NFS 网盘作为备份盘,详见将单表数据备份到网络盘

BR 备份时,对集群影响多大?

使用 sysbencholtp_read_only 场景全速备份到非服务盘,对集群的影响依照表结构的不同,对集群 QPS 的影响在 15%~25% 之间。

如果需要控制备份带来的影响,可以使用 --ratelimit 参数限速。

BR 会备份系统表吗?在数据恢复的时候,这些系统表会冲突吗?

在 v5.1.0 之前,BR 备份时会过滤掉系统库 mysql.* 的表数据。自 v5.1.0 起,BR 默认备份集群内的全部数据,包括系统库 mysql.* 中的数据。但由于恢复 mysql.* 中系统表数据的技术实现尚不完善,因此 BR 默认不恢复系统库 mysql 中的表数据。详情参阅备份和恢复 mysql 系统库下的表数据(实验特性)

因为这些系统库根本不可能存在于备份中,恢复的时候自然不可能发生冲突。

BR 遇到 Permission denied 或者 No such file or directory 错误,即使用 root 运行 BR 也无法解决,该如何处理?

需要确认 TiKV 是否有访问备份目录的权限。如果是备份,确认是否有写权限;如果是恢复,确认是否有读权限。

在进行备份操作时,如果使用本地磁盘或 NFS 作为存储介质,请确保执行 BR 的用户和启动 TiKV 的用户相同(如果 BR 和 TiKV 位于不同的机器,则需要用户的 UID 相同),否则很备份可能会出现该问题。

使用 root 运行 BR 仍旧有可能会因为磁盘权限而失败,因为备份文件 (SST) 的保存是由 TiKV 执行的。

注意:

在恢复的时候也可能遇到同样的问题。

使用 BR 进行数据的恢复时,检验读权限的时机是在第一次读取 SST 文件时,考虑到执行 DDL 的耗时,这个时刻可能会离开始运行 BR 的时间很远。这样可能会出现等了很长时间之后遇到 Permission denied 错误失败的情况。

因此,最好在恢复前提前检查权限。

你可以按照如下步骤进行权限检查:

  1. 执行 Linux 原生的进程查询命令

    1. ps aux | grep tikv-server

    命令输出示例如下:

    1. tidb_ouo 9235 10.9 3.8 2019248 622776 ? Ssl 08:28 1:12 bin/tikv-server --addr 0.0.0.0:20162 --advertise-addr 172.16.6.118:20162 --status-addr 0.0.0.0:20188 --advertise-status-addr 172.16.6.118:20188 --pd 172.16.6.118:2379 --data-dir /home/user1/tidb-data/tikv-20162 --config conf/tikv.toml --log-file /home/user1/tidb-deploy/tikv-20162/log/tikv.log
    2. tidb_ouo 9236 9.8 3.8 2048940 631136 ? Ssl 08:28 1:05 bin/tikv-server --addr 0.0.0.0:20161 --advertise-addr 172.16.6.118:20161 --status-addr 0.0.0.0:20189 --advertise-status-addr 172.16.6.118:20189 --pd 172.16.6.118:2379 --data-dir /home/user1/tidb-data/tikv-20161 --config conf/tikv.toml --log-file /home/user1/tidb-deploy/tikv-20161/log/tikv.log

    或者执行以下命令:

    1. ps aux | grep tikv-server | awk '{print $1}'

    命令输出示例如下:

    1. tidb_ouo
    2. tidb_ouo
  2. 使用 TiUP 命令查询集群的启动信息

    1. tiup cluster list

    命令输出示例如下:

    1. [root@Copy-of-VM-EE-CentOS76-v1 br]# tiup cluster list
    2. Starting component `cluster`: /root/.tiup/components/cluster/v1.5.2/tiup-cluster list
    3. Name User Version Path PrivateKey
    4. ---- ---- ------- ---- ----------
    5. tidb_cluster tidb_ouo v5.0.2 /root/.tiup/storage/cluster/clusters/tidb_cluster /root/.tiup/storage/cluster/clusters/tidb_cluster/ssh/id_rsa
  3. 检查备份目录的权限,例如 backup 目录是备份数据存储目录。命令示例如下:

    1. ls -al backup

    命令输出示例如下:

    1. [root@Copy-of-VM-EE-CentOS76-v1 user1]# ls -al backup
    2. total 0
    3. drwxr-xr-x 2 root root 6 Jun 28 17:48 .
    4. drwxr-xr-x 11 root root 310 Jul 4 10:35 ..

    由以上命令输出结果可知,tikv-server 实例由用户 tidb_ouo 启动,但用户账号 tidb_ouo 没有 backup 目录的写入权限, 所以备份失败。

BR 遇到错误信息 Io(Os...),该如何处理?

这类问题几乎都是 TiKV 在写盘的时候遇到的系统调用错误。例如遇到 Io(Os { code: 13, kind: PermissionDenied...}) 或者 Io(Os { code: 2, kind: NotFound...}) 这类错误信息,首先检查备份目录的挂载方式和文件系统,试试看备份到其它文件夹或者其它硬盘。

目前已知备份到 samba 搭建的网盘时可能会遇到 Code: 22(invalid argument) 错误。

BR 遇到错误信息 rpc error: code = Unavailable desc =...,该如何处理?

该问题一般是因为使用 BR 恢复数据的时候,恢复集群的性能不足导致的。可以从恢复集群的监控或者 TiKV 日志来辅助确认。

要解决这类问题,可以尝试扩大集群资源,以及调小恢复时的并发度 (concurrency),打开限速 (ratelimit) 设置。

使用 local storage 的时候,BR 备份的文件会存在哪里?

在使用 local storage 的时候,会在运行 BR 的节点生成 backupmeta,在各个 Region 的 Leader 节点生成备份文件。

备份数据有多大,备份会有副本吗?

备份的时候仅仅在每个 Region 的 Leader 处生成该 Region 的备份文件。因此备份的大小等于数据大小,不会有多余的副本数据。所以最终的总大小大约是 TiKV 数据总量除以副本数。

但是假如想要从本地恢复数据,因为每个 TiKV 都必须要能访问到所有备份文件,在最终恢复的时候会有等同于恢复时 TiKV 节点数量的副本。

BR 恢复到 TiCDC / Drainer 的上游集群时,要注意些什么?

  • BR 恢复的数据无法被同步到下游,因为 BR 直接导入 SST 文件,而下游集群目前没有办法获得上游的 SST 文件。

  • 在 4.0.3 版本之前,BR 恢复时产生的 DDL jobs 还可能会让 TiCDC / Drainer 执行异常的 DDL。所以,如果一定要在 TiCDC / Drainer 的上游集群执行恢复,请将 BR 恢复的所有表加入 TiCDC / Drainer 的阻止名单。

TiCDC 可以通过配置项中的 filter.rules 项完成,Drainer 则可以通过 syncer.ignore-table 完成。

BR 会备份表的 SHARD_ROW_ID_BITSPRE_SPLIT_REGIONS 信息吗?恢复出来的表会有多个 Region 吗?

会的,BR 会备份表的 SHARD_ROW_ID_BITSPRE_SPLIT_REGIONS 信息,并恢复成多个 Region。

使用 BR 恢复备份数据后,SQL 查询报错 region is unavailable

如果 BR 备份的集群有 TiFlash,恢复时会将 TiFlash 信息存进 TableInfo。此时如果恢复的集群没有 TiFlash,则会报该错误。计划在未来版本中修复该错误。

BR 是否支持就地 (in-place) 全量恢复某个历史备份?

不支持。

在 Kubernetes 环境中如何使用 BR 进行增量备份?

可以使用 kubectl 执行 kubectl -n ${namespace} get bk ${name} 以获得上次 BR 备份 commitTs 字段,该字段的内容可作为 --lastbackupts 使用。

BR backupTS 如何转化成 Unix 时间?

BR backupTS 默认是在备份开始前,从 PD 获取到的最新时间戳。可以使用 pd-ctl tso timestamp 来解析该时间戳,以获得精确值,也可以通过 backupTS >> 18 来快速获取估计值。

BR 恢复存档后是否需要对表执行 ANALYZE 以更新 TiDB 在表和索引上留下的统计信息?

BR 不会备份统计信息(v4.0.9 除外)。所以在恢复存档后需要手动执行 ANALYZE TABLE 或等待 TiDB 自动进行 ANALYZE

BR v4.0.9 备份统计信息使 BR 消耗过多内存,为保证备份过程正常,从 v4.0.10 开始默认关闭备份统计信息的功能。

如果不对表执行 ANALYZE,TiDB 会因统计信息不准确而选不中最优化的执行计划。如果查询性能不是重点关注项,可以忽略 ANALYZE

是否可以同时使用多个 BR 进程对单个集群进行恢复?

强烈不建议在单个集群中同时使用多个 BR 进程进行恢复,原因如下:

  • BR 在恢复数据时,会修改 PD 的一些全局配置。如果同时使用多个 BR 进程进行恢复,这些配置可能会被错误地覆写,导致集群状态异常。
  • 因为 BR 在恢复数据的时候会占用大量集群资源,事实上并行恢复能获得的速度提升也非常有限。
  • 多个 BR 并行恢复的场景没有经过测试,无法保证成功。