title: TiCDC 运维操作及任务管理

TiCDC 运维操作及任务管理

本文档介绍如何通过 TiCDC 提供的命令行工具 cdc cli 和 HTTP 接口两种方式来管理 TiCDC 集群和同步任务。

使用 TiUP 升级 TiCDC

本部分介绍如何使用 TiUP 来升级 TiCDC 集群。在以下例子中,假设需要将 TiCDC 组件和整个 TiDB 集群升级到 v4.0.6。

  1. tiup update --self && \
  2. tiup update --all && \
  3. tiup cluster upgrade <cluster-name> v4.0.6

升级的注意事项

使用加密传输 (TLS) 功能

请参阅为 TiDB 组件间通信开启加密传输

使用 cdc cli 工具来管理集群状态和数据同步

本部分介绍如何使用 cdc cli 工具来管理集群状态和数据同步。cdc cli 是指通过 cdc binary 执行 cli 子命令。在以下接口描述中,通过 cdc binary 直接执行 cli 命令,PD 的监听 IP 地址为 10.0.10.25,端口为 2379

注意:

PD 监听的 IP 和端口对应为 pd-server 启动时指定的 advertise-client-urls 参数。多个 pd-server 会包含多个该参数,用户可以指定其中任意一个或多个参数。例如 --pd=http://10.0.10.25:2379--pd=http://10.0.10.25:2379,http://10.0.10.26:2379,http://10.0.10.27:2379

如果你使用的 TiCDC 是用 TiUP 部署的,需要将以下命令中的 cdc cli 替换为 tiup ctl cdc

管理 TiCDC 服务进程 (capture)

  • 查询 capture 列表:

    1. cdc cli capture list --pd=http://10.0.10.25:2379
    1. [
    2. {
    3. "id": "806e3a1b-0e31-477f-9dd6-f3f2c570abdd",
    4. "is-owner": true,
    5. "address": "127.0.0.1:8300"
    6. },
    7. {
    8. "id": "ea2a4203-56fe-43a6-b442-7b295f458ebc",
    9. "is-owner": false,
    10. "address": "127.0.0.1:8301"
    11. }
    12. ]
    • id:服务进程的 ID。
    • is-owner:表示该服务进程是否为 owner 节点。
    • address:该服务进程对外提供接口的地址。

管理同步任务 (changefeed)

创建同步任务

使用以下命令来创建同步任务:

  1. cdc cli changefeed create --pd=http://10.0.10.25:2379 --sink-uri="mysql://root:123456@127.0.0.1:3306/" --changefeed-id="simple-replication-task"
  1. Create changefeed successfully!
  2. ID: simple-replication-task
  3. Info: {"sink-uri":"mysql://root:123456@127.0.0.1:3306/","opts":{},"create-time":"2020-03-12T22:04:08.103600025+08:00","start-ts":415241823337054209,"target-ts":0,"admin-job-type":0,"sort-engine":"memory","sort-dir":".","config":{"case-sensitive":true,"filter":{"rules":["*.*"],"ignore-txn-start-ts":null,"ddl-allow-list":null},"mounter":{"worker-num":16},"sink":{"dispatchers":null,"protocol":"default"},"cyclic-replication":{"enable":false,"replica-id":0,"filter-replica-ids":null,"id-buckets":0,"sync-ddl":false},"scheduler":{"type":"table-number","polling-time":-1}},"state":"normal","history":null,"error":null}
  • --changefeed-id:同步任务的 ID,格式需要符合正则表达式 ^[a-zA-Z0-9]+(\-[a-zA-Z0-9]+)*$。如果不指定该 ID,TiCDC 会自动生成一个 UUID(version 4 格式)作为 ID。
  • --sink-uri:同步任务下游的地址,需要按照以下格式进行配置,目前 scheme 支持 mysql/tidb/kafka/pulsar

    ```

  1. [scheme]://[userinfo@][host]:[port][/path]?[query_parameters]
  2. ```
  3. URI 中包含特殊字符时,需要以 URL 编码对特殊字符进行处理。
  • --start-ts:指定 changefeed 的开始 TSO。TiCDC 集群将从这个 TSO 开始拉取数据。默认为当前时间。
  • --target-ts:指定 changefeed 的目标 TSO。TiCDC 集群拉取数据直到这个 TSO 停止。默认为空,即 TiCDC 不会自动停止。
  • --sort-engine:指定 changefeed 使用的排序引擎。因 TiDB 和 TiKV 使用分布式架构,TiCDC 需要对数据变更记录进行排序后才能输出。该项支持 memory/unified/file

    • memory:在内存中进行排序。
    • unified:优先使用内存排序,内存不足时则自动使用硬盘暂存数据。该选项在 v5.0 版本中默认开启。
    • file:完全使用磁盘暂存数据。已经弃用,不建议在任何情况使用。
  • --sort-dir: 指定排序引擎使用的临时文件目录。对于 v5.0.x 版本,不建议在 cdc cli changefeed create 中使用该选项,建议在 cdc server 命令中使用该选项来设置临时文件目录。该配置项的默认值为 /tmp/cdc_sort。在开启 Unified Sorter 的情况下,如果服务器的该目录不可写或可用空间不足,请手动指定 sort-dir。如果 sort-dir 对应的目录不可写入,changefeed 将会自动停止。

  • --config:指定 changefeed 配置文件。

Sink URI 配置 mysql/tidb

配置样例如下所示:

  1. --sink-uri="mysql://root:123456@127.0.0.1:3306/?worker-count=16&max-txn-row=5000"

URI 中可配置的的参数如下:

参数 解析
root 下游数据库的用户名
123456 下游数据库密码
127.0.0.1 下游数据库的 IP
3306 下游数据的连接端口
worker-count 向下游执行 SQL 的并发度(可选,默认值为 16
max-txn-row 向下游执行 SQL 的 batch 大小(可选,默认值为 256
ssl-ca 连接下游 MySQL 实例所需的 CA 证书文件路径(可选)
ssl-cert 连接下游 MySQL 实例所需的证书文件路径(可选)
ssl-key 连接下游 MySQL 实例所需的证书密钥文件路径(可选)
time-zone 连接下游 MySQL 实例时使用的时区名称,从 v4.0.8 开始生效。(可选。如果不指定该参数,使用 TiCDC 服务进程的时区;如果指定该参数但使用空值,则表示连接 MySQL 时不指定时区,使用下游默认时区)

Sink URI 配置 kafka

配置样例如下所示:

  1. --sink-uri="kafka://127.0.0.1:9092/cdc-test?kafka-version=2.4.0&partition-num=6&max-message-bytes=67108864&replication-factor=1"

URI 中可配置的的参数如下:

参数 解析
127.0.0.1 下游 Kafka 对外提供服务的 IP
9092 下游 Kafka 的连接端口
cdc-test 使用的 Kafka topic 名字
kafka-version 下游 Kafka 版本号(可选,默认值 2.4.0,目前支持的最低版本为 0.11.0.2,最高版本为 2.7.0。该值需要与下游 Kafka 的实际版本保持一致)
kafka-client-id 指定同步任务的 Kafka 客户端的 ID(可选,默认值为 TiCDC_sarama_producer_同步任务的 ID
partition-num 下游 Kafka partition 数量(可选,不能大于实际 partition 数量。如果不填会自动获取 partition 数量。)
max-message-bytes 每次向 Kafka broker 发送消息的最大数据量(可选,默认值 64MB
replication-factor kafka 消息保存副本数(可选,默认值 1
protocol 输出到 kafka 消息协议,可选值有 defaultcanalavromaxwell(默认值为 default
max-batch-size 从 v4.0.9 引入。如果消息协议支持将多条变更记录输出到一条 kafka 消息,该参数指定一条 kafka 消息中变更记录的最多数量,目前仅对 Kafka 的 protocoldefault 时有效(可选,默认值为 4096
ca 连接下游 Kafka 实例所需的 CA 证书文件路径(可选)
cert 连接下游 Kafka 实例所需的证书文件路径(可选)
key 连接下游 Kafka 实例所需的证书密钥文件路径(可选)

注意:

protocoldefault 时,TiCDC 会尽量避免产生长度超过 max-message-bytes 的消息。但如果单条数据变更记录需要超过 max-message-bytes 个字节来表示,为了避免静默失败,TiCDC 会试图输出这条消息并在日志中输出 Warning。

TiCDC 集成 Kafka Connect (Confluent Platform)

警告:

当前该功能为实验特性,不建议在生产环境中使用。

配置样例如下所示:

  1. --sink-uri="kafka://127.0.0.1:9092/cdc-test?kafka-version=2.4.0&protocol=avro&partition-num=6&max-message-bytes=67108864&replication-factor=1"
  2. --opts registry="http://127.0.0.1:8081"

如要使用 Confluent 提供的 data connectors 向关系型或非关系型数据库传输数据,应当选择 avro 协议,并在 opts 中提供 Confluent Schema Registry 的 URL。请注意,avro 协议和 Confluent 集成目前均为实验特性

集成具体步骤详见 TiDB 集成 Confluent Platform 快速上手指南

Sink URI 配置 pulsar

配置样例如下所示:

  1. --sink-uri="pulsar://127.0.0.1:6650/cdc-test?connectionTimeout=2s"

URI 中可配置的的参数如下:

参数 解析
connectionTimeout 连接下游 Pulsar 的超时时间。可选参数,默认值为 30s。
operationTimeout 对下游 Pulsar 进行操作的超时时间(例如创建 topic)。可选参数,默认值为 30s。
tlsTrustCertsFilePath 连接下游 Pulsar 实例所需的 CA 证书文件路径(可选)
tlsAllowInsecureConnection 在开启 TLS 之后是否允许非加密连接(可选)
tlsValidateHostname 是否校验下游 Pulsar 证书中的 host name(可选)
maxConnectionsPerBroker 下游单个 Pulsar broker 最多允许的连接数(可选,默认值为 1)
auth.tls 使用 TLS 模式认证下游 Pulsar(可选,示例 "{"tlsCertFile":"/path/to/cert", "tlsKeyFile":"/path/to/key"}"
auth.token 使用 token 模式认证下游(可选,示例 "{"token":"secret-token"}" 或者 "{"file":"path/to/secret-token-file"}"
name TiCDC 中 Pulsar producer 名字(可选)
maxPendingMessages Pending 消息队列的最大大小,例如,等待接收来自 Pulsar 的确认的消息(可选,默认值为 1000)
disableBatching 禁止自动批量发送消息(可选)
batchingMaxPublishDelay 设置发送消息的批处理时间(默认值为 10ms)
compressionType 设置发送消息时使用的压缩算法(可选 LZ4ZLIBZSTD,默认值为 ZSTD
hashingScheme 用于选择发送分区的哈希算法(可选 JavaStringHashMurmur3,默认值为 JavaStringHash
properties.* 在 TiCDC 中 Pulsar producer 上添加用户定义的属性(可选,示例 properties.location=Hangzhou

更多关于 Pulsar 的参数解释,参见 pulsar-client-go ClientOptions 文档pulsar-client-go ProducerOptions 文档

使用同步任务配置文件

如需设置更多同步任务的配置,比如指定同步单个数据表,请参阅同步任务配置文件描述

使用配置文件创建同步任务的方法如下:

  1. cdc cli changefeed create --pd=http://10.0.10.25:2379 --sink-uri="mysql://root:123456@127.0.0.1:3306/" --config changefeed.toml

其中 changefeed.toml 为同步任务的配置文件。

查询同步任务列表

使用以下命令来查询同步任务列表:

  1. cdc cli changefeed list --pd=http://10.0.10.25:2379
  1. [{
  2. "id": "simple-replication-task",
  3. "summary": {
  4. "state": "normal",
  5. "tso": 417886179132964865,
  6. "checkpoint": "2020-07-07 16:07:44.881",
  7. "error": null
  8. }
  9. }]
  • checkpoint 即为 TiCDC 已经将该时间点前的数据同步到了下游。
  • state 为该同步任务的状态:
    • normal: 正常同步
    • stopped: 停止同步(手动暂停或出错)
    • removed: 已删除任务(只在指定 --all 选项时才会显示该状态的任务。未指定时,可通过 query 查询该状态的任务)
    • finished: 任务已经同步到指定 target-ts,处于已完成状态(只在指定 --all 选项时才会显示该状态的任务。未指定时,可通过 query 查询该状态的任务)

查询特定同步任务

使用 changefeed query 命令可以查询特定同步任务(对应某个同步任务的信息和状态),指定 --simple-s 参数会简化输出,提供最基本的同步状态和 checkpoint 信息。不指定该参数会输出详细的任务配置、同步状态和同步表信息。

  1. cdc cli changefeed query -s --pd=http://10.0.10.25:2379 --changefeed-id=simple-replication-task
  1. {
  2. "state": "normal",
  3. "tso": 419035700154597378,
  4. "checkpoint": "2020-08-27 10:12:19.579",
  5. "error": null
  6. }

以上命令中:

  • state 代表当前 changefeed 的同步状态,各个状态必须和 changefeed list 中的状态相同。
  • tso 代表当前 changefeed 中已经成功写入下游的最大事务 TSO。
  • checkpoint 代表当前 changefeed 中已经成功写入下游的最大事务 TSO 对应的时间。
  • error 记录当前 changefeed 是否有错误发生。
  1. cdc cli changefeed query --pd=http://10.0.10.25:2379 --changefeed-id=simple-replication-task
  1. {
  2. "info": {
  3. "sink-uri": "mysql://127.0.0.1:3306/?max-txn-row=20\u0026worker-number=4",
  4. "opts": {},
  5. "create-time": "2020-08-27T10:33:41.687983832+08:00",
  6. "start-ts": 419036036249681921,
  7. "target-ts": 0,
  8. "admin-job-type": 0,
  9. "sort-engine": "memory",
  10. "sort-dir": ".",
  11. "config": {
  12. "case-sensitive": true,
  13. "enable-old-value": false,
  14. "filter": {
  15. "rules": [
  16. "*.*"
  17. ],
  18. "ignore-txn-start-ts": null,
  19. "ddl-allow-list": null
  20. },
  21. "mounter": {
  22. "worker-num": 16
  23. },
  24. "sink": {
  25. "dispatchers": null,
  26. "protocol": "default"
  27. },
  28. "cyclic-replication": {
  29. "enable": false,
  30. "replica-id": 0,
  31. "filter-replica-ids": null,
  32. "id-buckets": 0,
  33. "sync-ddl": false
  34. },
  35. "scheduler": {
  36. "type": "table-number",
  37. "polling-time": -1
  38. }
  39. },
  40. "state": "normal",
  41. "history": null,
  42. "error": null
  43. },
  44. "status": {
  45. "resolved-ts": 419036036249681921,
  46. "checkpoint-ts": 419036036249681921,
  47. "admin-job-type": 0
  48. },
  49. "count": 0,
  50. "task-status": [
  51. {
  52. "capture-id": "97173367-75dc-490c-ae2d-4e990f90da0f",
  53. "status": {
  54. "tables": {
  55. "47": {
  56. "start-ts": 419036036249681921,
  57. "mark-table-id": 0
  58. }
  59. },
  60. "operation": null,
  61. "admin-job-type": 0
  62. }
  63. }
  64. ]
  65. }

以上命令中:

  • info 代表查询 changefeed 的同步配置。
  • status 代表查询 changefeed 的同步状态信息。
    • resolved-ts 代表当前 changefeed 中已经成功从 TiKV 发送到 TiCDC 的最大事务 TS。
    • checkpoint-ts 代表当前 changefeed 中已经成功写入下游的最大事务 TS。
    • admin-job-type 代表一个 changefeed 的状态:
      • 0: 状态正常。
      • 1: 任务暂停,停止任务后所有同步 processor 会结束退出,同步任务的配置和同步状态都会保留,可以从 checkpoint-ts 恢复任务。
      • 2: 任务恢复,同步任务从 checkpoint-ts 继续同步。
      • 3: 任务已删除,接口请求后会结束所有同步 processor,并清理同步任务配置信息。同步状态保留,只提供查询,没有其他实际功能。
  • task-status 代表查询 changefeed 所分配的各个同步子任务的状态信息。

停止同步任务

使用以下命令来停止同步任务:

  1. cdc cli changefeed pause --pd=http://10.0.10.25:2379 --changefeed-id simple-replication-task

以上命令中:

  • --changefeed-id=uuid 为需要操作的 changefeed ID。

恢复同步任务

使用以下命令恢复同步任务:

  1. cdc cli changefeed resume --pd=http://10.0.10.25:2379 --changefeed-id simple-replication-task

以上命令中:

  • --changefeed-id=uuid 为需要操作的 changefeed ID。

删除同步任务

使用以下命令删除同步任务:

  1. cdc cli changefeed remove --pd=http://10.0.10.25:2379 --changefeed-id simple-replication-task
  • --changefeed-id=uuid 为需要操作的 changefeed ID。

删除任务后会保留任务的同步状态信息 24 小时(主要用于记录同步的 checkpoint),24 小时内不能创建同名的任务。如果希望彻底删除任务信息,可以指定 --force-f 参数删除,删除后 changefeed 的所有信息都会被清理,可以立即创建同名的 changefeed。

  1. cdc cli changefeed remove --pd=http://10.0.10.25:2379 --changefeed-id simple-replication-task --force

更新同步任务配置

TiCDC 从 4.0.4 开始支持非动态修改同步任务配置,修改 changefeed 配置需要按照 暂停任务 -> 修改配置 -> 恢复任务 的流程。

  1. cdc cli changefeed pause -c test-cf --pd=http://10.0.10.25:2379
  2. cdc cli changefeed update -c test-cf --pd=http://10.0.10.25:2379 --sink-uri="mysql://127.0.0.1:3306/?max-txn-row=20&worker-number=8" --config=changefeed.toml
  3. cdc cli changefeed resume -c test-cf --pd=http://10.0.10.25:2379

当前支持修改的配置包括:

  • changefeed 的 sink-uri
  • changefeed 配置文件及文件内所有配置
  • changefeed 是否使用文件排序和排序目录
  • changefeed 的 target-ts

管理同步子任务处理单元 (processor)

  • 查询 processor 列表:

    1. cdc cli processor list --pd=http://10.0.10.25:2379
    1. [
    2. {
    3. "id": "9f84ff74-abf9-407f-a6e2-56aa35b33888",
    4. "capture-id": "b293999a-4168-4988-a4f4-35d9589b226b",
    5. "changefeed-id": "simple-replication-task"
    6. }
    7. ]
  • 查询特定 processor,对应于某个节点处理的同步子任务信息和状态:

    1. cdc cli processor query --pd=http://10.0.10.25:2379 --changefeed-id=simple-replication-task --capture-id=b293999a-4168-4988-a4f4-35d9589b226b
    1. {
    2. "status": {
    3. "tables": {
    4. "56": { # 56 表示同步表 id,对应 TiDB 中表的 tidb_table_id
    5. "start-ts": 417474117955485702,
    6. "mark-table-id": 0 # mark-table-id 是用于环形复制时标记表的 id,对应于 TiDB 中标记表的 tidb_table_id
    7. }
    8. },
    9. "operation": null,
    10. "admin-job-type": 0
    11. },
    12. "position": {
    13. "checkpoint-ts": 417474143881789441,
    14. "resolved-ts": 417474143881789441,
    15. "count": 0
    16. }
    17. }

以上命令中:

  • status.tables 中每一个作为 key 的数字代表同步表的 id,对应 TiDB 中表的 tidb_table_id。
  • mark-table-id 是用于环形复制时标记表的 id,对应于 TiDB 中标记表的 tidb_table_id。
  • resolved-ts 代表当前 processor 中已经排序数据的最大 TSO。
  • checkpoint-ts 代表当前 processor 已经成功写入下游的事务的最大 TSO。

使用 HTTP 接口管理集群状态和数据同步

目前 HTTP 接口提供一些基础的查询和运维功能。在以下接口描述中,假设 TiCDC server 的监听 IP 地址为 127.0.0.1,端口为 8300(在启动 TiCDC server 时通过 --addr=ip:port 指定绑定的 IP 和端口)。

获取 TiCDC server 状态信息的接口

使用以下命令获取 CDC server 状态信息的接口:

  1. curl http://127.0.0.1:8300/status
  1. {
  2. "version": "0.0.1",
  3. "git_hash": "863f8ea889b144244ff53593a45c47ad22d37396",
  4. "id": "6d92386a-73fc-43f3-89de-4e337a42b766", # capture id
  5. "pid": 12102 # cdc server pid
  6. }

驱逐 owner 节点

  1. curl -X POST http://127.0.0.1:8300/capture/owner/resign

以上命令仅对 owner 节点请求有效。

  1. {
  2. "status": true,
  3. "message": ""
  4. }
  1. curl -X POST http://127.0.0.1:8301/capture/owner/resign

以上命令对非 owner 节点请求返回错误。

  1. election: not leader

手动调度表到其他节点

  1. curl -X POST http://127.0.0.1:8300/capture/owner/move_table -d 'cf-id=cf060953-036c-4f31-899f-5afa0ad0c2f9&target-cp-id=6f19a6d9-0f8c-4dc9-b299-3ba7c0f216f5&table-id=49'

参数说明

参数名 说明
cf-id 进行调度的 Changefeed ID
target-cp-id 目标 Capture ID
table-id 需要调度的 Table ID

以上命令仅对 owner 节点请求有效。对非 owner 节点将会返回错误。

  1. {
  2. "status": true,
  3. "message": ""
  4. }

动态调整 TiCDC server 日志级别

  1. curl -X POST -d '"debug"' http://127.0.0.1:8301/admin/log

POST 参数表示新的日志级别,支持 zap 提供的日志级别:”debug”、”info”、”warn”、”error”、”dpanic”、”panic”、”fatal”。该接口参数为 JSON 编码,需要注意引号的使用:'"debug"'

同步任务配置文件描述

本部分详细介绍了同步任务的配置。

  1. # 指定配置文件中涉及的库名、表名是否为大小写敏感
  2. # 该配置会同时影响 filter 和 sink 相关配置,默认为 true
  3. case-sensitive = true
  4. # 是否输出 old value,从 v4.0.5 开始支持,从 v5.0 开始默认为 true
  5. enable-old-value = true
  6. [filter]
  7. # 忽略指定 start_ts 的事务
  8. ignore-txn-start-ts = [1, 2]
  9. # 过滤器规则
  10. # 过滤规则语法:https://docs.pingcap.com/zh/tidb/stable/table-filter#表库过滤语法
  11. rules = ['*.*', '!test.*']
  12. [mounter]
  13. # mounter 线程数,用于解码 TiKV 输出的数据
  14. worker-num = 16
  15. [sink]
  16. # 对于 MQ 类的 Sink,可以通过 dispatchers 配置 event 分发器
  17. # 支持 default、ts、rowid、table 四种分发器,分发规则如下:
  18. # - default:有多个唯一索引(包括主键)时按照 table 模式分发;只有一个唯一索引(或主键)按照 rowid 模式分发;如果开启了 old value 特性,按照 table 分发
  19. # - ts:以行变更的 commitTs 做 Hash 计算并进行 event 分发
  20. # - rowid:以所选的 HandleKey 列名和列值做 Hash 计算并进行 event 分发
  21. # - table:以表的 schema 名和 table 名做 Hash 计算并进行 event 分发
  22. # matcher 的匹配语法和过滤器规则语法相同
  23. dispatchers = [
  24. {matcher = ['test1.*', 'test2.*'], dispatcher = "ts"},
  25. {matcher = ['test3.*', 'test4.*'], dispatcher = "rowid"},
  26. ]
  27. # 对于 MQ 类的 Sink,可以指定消息的协议格式
  28. # 目前支持 default、canal、avro 和 maxwell 四种协议。default 为 TiCDC Open Protocol
  29. protocol = "default"
  30. [cyclic-replication]
  31. # 是否开启环形同步
  32. enable = false
  33. # 当前 TiCDC 的复制 ID
  34. replica-id = 1
  35. # 需要过滤掉的同步 ID
  36. filter-replica-ids = [2,3]
  37. # 是否同步 DDL
  38. sync-ddl = true

配置文件兼容性的注意事项

  • TiCDC v4.0.0 中移除了 ignore-txn-commit-ts,添加了 ignore-txn-start-ts,使用 start_ts 过滤事务。
  • TiCDC v4.0.2 中移除了 db-dbs/db-tables/ignore-dbs/ignore-tables,添加了 rules,使用新版的数据库和数据表过滤规则,详细语法参考表库过滤

环形同步

警告:

目前环形同步属于实验特性,尚未经过完备的测试,不建议在生产环境中使用该功能。

环形同步功能支持在多个独立的 TiDB 集群间同步数据。比如有三个 TiDB 集群 A、B 和 C,它们都有一个数据表 test.user_data,并且各自对它有数据写入。环形同步功能可以将 A、B 和 C 对 test.user_data 的写入同步其它集群上,使三个集群上的 test.user_data 达到最终一致。

环形同步使用示例

在三个集群 A、B 和 C 上开启环形复制,其中 A 到 B 的同步使用两个 TiCDC。A 作为三个集群的 DDL 入口。

TiCDC cyclic replication

使用环形同步功能时,需要设置同步任务的创建参数:

  • --cyclic-replica-id:用于指定为上游集群的写入指定来源 ID,需要确保每个集群 ID 的唯一性。
  • --cyclic-filter-replica-ids:用于指定需要过滤的写入来源 ID,通常为下游集群的 ID。
  • --cyclic-sync-ddl:用于指定是否同步 DDL 到下游。

环形同步任务创建步骤如下:

  1. 在 TiDB 集群 A,B 和 C 上启动 TiCDC 组件

    1. # 在 TiDB 集群 A 上启动 TiCDC 组件。
    2. cdc server \
    3. --pd="http://${PD_A_HOST}:${PD_A_PORT}" \
    4. --log-file=ticdc_1.log \
    5. --addr=0.0.0.0:8301 \
    6. --advertise-addr=127.0.0.1:8301
    7. # 在 TiDB 集群 B 上启动 TiCDC 组件。
    8. cdc server \
    9. --pd="http://${PD_B_HOST}:${PD_B_PORT}" \
    10. --log-file=ticdc_2.log \
    11. --addr=0.0.0.0:8301 \
    12. --advertise-addr=127.0.0.1:8301
    13. # 在 TiDB 集群 C 上启动 TiCDC 组件。
    14. cdc server \
    15. --pd="http://${PD_C_HOST}:${PD_C_PORT}" \
    16. --log-file=ticdc_3.log \
    17. --addr=0.0.0.0:8301 \
    18. --advertise-addr=127.0.0.1:8301
  2. 在 TiDB 集群 A,B 和 C 上创建环形同步需要使用的标记数据表 (mark table)。

    1. # 在 TiDB 集群 A 上创建标记数据表。
    2. cdc cli changefeed cyclic create-marktables \
    3. --cyclic-upstream-dsn="root@tcp(${TIDB_A_HOST}:${TIDB_A_PORT})/" \
    4. --pd="http://${PD_A_HOST}:${PD_A_PORT}"
    5. # 在 TiDB 集群 B 上创建标记数据表。
    6. cdc cli changefeed cyclic create-marktables \
    7. --cyclic-upstream-dsn="root@tcp(${TIDB_B_HOST}:${TIDB_B_PORT})/" \
    8. --pd="http://${PD_B_HOST}:${PD_B_PORT}"
    9. # 在 TiDB 集群 C 上创建标记数据表。
    10. cdc cli changefeed cyclic create-marktables \
    11. --cyclic-upstream-dsn="root@tcp(${TIDB_C_HOST}:${TIDB_C_PORT})/" \
    12. --pd="http://${PD_C_HOST}:${PD_C_PORT}"
  3. 在 TiDB 集群 A,B 和 C 上创建环形同步任务。

    1. # 在 TiDB 集群 A 上创建环形同步任务。
    2. cdc cli changefeed create \
    3. --sink-uri="mysql://root@${TiDB_B_HOST}/" \
    4. --pd="http://${PD_A_HOST}:${PD_A_PORT}" \
    5. --cyclic-replica-id 1 \
    6. --cyclic-filter-replica-ids 2 \
    7. --cyclic-sync-ddl true
    8. # 在 TiDB 集群 B 上创建环形同步任务。
    9. cdc cli changefeed create \
    10. --sink-uri="mysql://root@${TiDB_C_HOST}/" \
    11. --pd="http://${PD_B_HOST}:${PD_B_PORT}" \
    12. --cyclic-replica-id 2 \
    13. --cyclic-filter-replica-ids 3 \
    14. --cyclic-sync-ddl true
    15. # 在 TiDB 集群 C 上创建环形同步任务。
    16. cdc cli changefeed create \
    17. --sink-uri="mysql://root@${TiDB_A_HOST}/" \
    18. --pd="http://${PD_C_HOST}:${PD_C_PORT}" \
    19. --cyclic-replica-id 3 \
    20. --cyclic-filter-replica-ids 1 \
    21. --cyclic-sync-ddl false

环形同步使用说明

  1. 在创建环形同步任务前,必须使用 cdc cli changefeed cyclic create-marktables 创建环形同步功能使用到的标记表。
  2. 开启环形同步的数据表名字需要符合正则表达式 ^[a-zA-Z0-9_]+$
  3. 在创建环形同步任务前,开启环形复制的数据表必须已创建完毕。
  4. 开启环形复制后,不能创建一个会被环形同步任务同步的表。
  5. 如果想在线 DDL,需要确保以下两点:
    1. 多个集群的 TiCDC 构成一个单向 DDL 同步链,不能成环,例如示例中只有 C 集群的 TiCDC 关闭了 sync-ddl
    2. DDL 必须在单向 DDL 同步链的开始集群上执行,例如示例中的 A 集群。

输出行变更的历史值 从 v4.0.5 版本开始引入

警告:

目前输出行变更历史值属于实验特性,尚未经过完备的测试,不建议在生产环境中使用该功能。

在默认配置下同步任务输出的 TiCDC Open Protocol 行变更数据只包含变更后的值,不包含变更前行的值,因此该输出数据不支持 TiDB 4.0 新的 Collation 框架,也不满足 TiCDC Open Protocol 的消费端使用行变更历史值的需求。

从 v4.0.5 开始,TiCDC 支持输出行变更数据的历史值。若要开启该特性,需要在 changefeed 的配置文件的根级别指定以下配置:

  1. enable-old-value = true

开启该特性后,TiCDC Open Protocol 的输出格式参考 TiCDC 开放数据协议 - Row Changed Event,使用 MySQL sink 时也会自动支持的 TiDB 4.0 新 Collation 特性。

同步没有有效索引的表

从 v4.0.8 开始,TiCDC 支持通过修改任务配置来同步没有有效索引的表。若要开启该特性,需要在 changefeed 配置文件的根级别进行如下指定:

  1. enable-old-value = true
  2. force-replicate = true

警告:

对于没有有效索引的表,INSERTREPLACE 等操作不具备可重入性,因此会有数据冗余的风险。TiCDC 在同步过程中只保证数据至少分发一次,因此开启该特性同步没有有效索引的表,一定会导致数据冗余出现。如果不能接受数据冗余,建议增加有效索引,譬如增加具有 AUTO RANDOM 属性的主键列。

Unified Sorter 功能

Unified Sorter 是 TiCDC 中的排序引擎功能,在 v5.0.x 版本中默认开启,用于缓解以下场景造成的内存溢出问题:

  • 如果 TiCDC 数据订阅任务的暂停中断时间长,其间积累了大量的增量更新数据需要同步。
  • 从较早的时间点启动数据订阅任务,业务写入量大,积累了大量的更新数据需要同步。

注意:

  • 如果服务器使用机械硬盘或其他有延迟或吞吐有瓶颈的存储设备,请谨慎开启 Unified Sorter。
  • 请保证硬盘的空闲容量大于等于 128G。如果需要同步大量历史数据,请确保每个节点的空闲容量大于等于要追赶的同步数据。
  • 如果您的服务器不符合以上条件,并希望关闭 Unified Sorter,请手动将 changefeed 的 sort-engine 设为 memory