使用 DM-Ansible 部署 DM 集群

DM-Ansible 是 PingCAP 基于 AnsiblePlaybooks 研发的 DM (Data Migration) 集群部署工具。本文将介绍如何使用 DM-Ansible 快速部署 DM 集群。

准备工作

在开始之前,先确保您准备好了以下配置的机器:

  • 部署目标机器若干,配置如下:

    • CentOS 7.3 (64-bit) 或更高版本,x86_64 架构(AMD64)
    • 机器之间内网互通
    • 关闭防火墙,或开放服务端口
  • 一台中控机,配置如下:

    • 包含 Python 2.7 的 CentOS 7.3(64-bit)或更高版本
    • Ansible 2.5 或更高版本
    • 互联网访问

第 1 步:在中控机上安装依赖包

注意:

请确保使用 root 账户登录中控机。

根据中控机的操作系统版本,运行相应命令如下:

  • CentOS 7:
  1. yum -y install epel-release git curl sshpass &&
  2. yum -y install python-pip
  • Ubuntu:
  1. apt-get -y install git curl sshpass python-pip

第 2 步:在中控机上创建 tidb 用户,并生成 SSH 密钥

注意:

请确保使用 root 账户登录中控机。

  • 创建 tidb 用户。
  1. useradd -m -d /home/tidb tidb
  • tidb 用户设置密码。
  1. passwd tidb
  • 在 sudo 文件尾部加上 tidb ALL=(ALL) NOPASSWD: ALL,为 tidb 用户设置免密使用 sudo。
  1. visudo
  1. tidb ALL=(ALL) NOPASSWD: ALL
  • 生成 SSH 密钥。

执行以下 su 命令,将登录用户从 root 切换至 tidb

  1. su - tidb

tidb 用户创建 SSH 密钥。当提示 Enter passphrase 时,按 Enter 键。命令成功执行后,生成的 SSH 私钥文件为 /home/tidb/.ssh/id_rsa,SSH 公钥文件为/home/tidb/.ssh/id_rsa.pub

  1. ssh-keygen -t rsa
  1. Generating public/private rsa key pair.
  2. Enter file in which to save the key (/home/tidb/.ssh/id_rsa):
  3. Created directory '/home/tidb/.ssh'.
  4. Enter passphrase (empty for no passphrase):
  5. Enter same passphrase again:
  6. Your identification has been saved in /home/tidb/.ssh/id_rsa.
  7. Your public key has been saved in /home/tidb/.ssh/id_rsa.pub.
  8. The key fingerprint is:
  9. SHA256:eIBykszR1KyECA/h0d7PRKz4fhAeli7IrVphhte7/So tidb@172.16.10.49
  10. The key's randomart image is:
  11. +---[RSA 2048]----+
  12. |=+o+.o. |
  13. |o=o+o.oo |
  14. | .O.=.= |
  15. | . B.B + |
  16. |o B * B S |
  17. | * + * + |
  18. | o + . |
  19. | o E+ . |
  20. |o ..+o. |
  21. +----[SHA256]-----+

第 3 步:下载 DM-Ansible 至中控机

注意:

请确保使用 tidb 账户登录中控机。

  • 打开 /home/tidb 目录。

  • 执行以下命令下载 DM-Ansible。

  1. wget https://download.pingcap.org/dm-ansible-{version}.tar.gz

{version} 为期望下载的 DM 版本,如 v1.0.1v1.0.2 等。可以通过 DM Release 查看当前已发布版本。

第 4 步:安装 DM-Ansible 及其依赖至中控机

注意:

  • 请确保使用 tidb 账户登录中控机。
  • 您需要使用 pip 方式下载安装 TiDB Ansible 及其依赖,否则可能会遇到兼容性问题。 DM-Ansible 当前与 Ansible 2.5 或更高版本兼容。
  • 在中控机上安装 DM-Ansible 及其依赖包:
  1. tar -xzvf dm-ansible-{version}.tar.gz &&
  2. mv dm-ansible-{version} dm-ansible &&
  3. cd /home/tidb/dm-ansible &&
  4. sudo pip install -r ./requirements.txt

Ansible 和相关依赖包含于 dm-ansible/requirements.txt 文件中。

  • 查看 Ansible 版本:
  1. ansible --version
  1. ansible 2.5.0

第 5 步:在中控机上配置 SSH 互信和 sudo 规则

注意:

请确保使用 tidb 账户登录至中控机。

  • 将您部署的目标机器的 IP 地址加至 hosts.ini 文件中的 [servers] 部分。
  1. cd /home/tidb/dm-ansible &&
  2. vi hosts.ini
  1. [servers]
  2. 172.16.10.71
  3. 172.16.10.72
  4. 172.16.10.73
  5. [all:vars]
  6. username = tidb
  • 运行如下命令,然后输入部署目标机器的 root 用户密码。
  1. ansible-playbook -i hosts.ini create_users.yml -u root -k

该步骤将在部署目标机器上创建 tidb 用户,创建 sudo 规则,并为中控机和部署目标机器之间配置 SSH 互信。

第 6 步:下载 DM 及监控组件安装包至中控机

注意:

请确保中控机接入互联网。

在中控机上,运行如下命令:

  1. ansible-playbook local_prepare.yml

第 7 步:编辑 inventory.ini 配置文件

注意:

请确保使用 tidb 账户登录中控机。

打开并编辑 /home/tidb/dm-ansible/inventory.ini 文件如下,以管控 DM 集群。

  1. dm_worker1 ansible_host=172.16.10.72 server_id=101 source_id="mysql-replica-01" mysql_host=172.16.10.81 mysql_user=root mysql_password='VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=' mysql_port=3306

根据场景需要,您可以在以下两种集群拓扑中任选一种:

通常情况下,我们推荐每个节点上部署单个 DM-Worker 实例。但如果您的机器拥有性能远超 TiDB 软件和硬件环境要求中推荐配置的 CPU 和内存,并且每个节点配置 2 块以上的硬盘或大于 2T 的 SSD,您可以在单个节点上部署不超过 2 个 DM-Worker 实例。

选项 1:使用单节点上单个 DM-Worker 实例的集群拓扑

节点主机 IP服务
node1172.16.10.71DM-master, Prometheus, Grafana, Alertmanager, DM Portal
node2172.16.10.72DM-worker1
node3172.16.10.73DM-worker2
mysql-replica-01172.16.10.81MySQL
mysql-replica-02172.16.10.82MySQL
  1. # DM 模块
  2. [dm_master_servers]
  3. dm_master ansible_host=172.16.10.71
  4. [dm_worker_servers]
  5. dm_worker1 ansible_host=172.16.10.72 server_id=101 source_id="mysql-replica-01" mysql_host=172.16.10.81 mysql_user=root mysql_password='VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=' mysql_port=3306
  6. dm_worker2 ansible_host=172.16.10.73 server_id=102 source_id="mysql-replica-02" mysql_host=172.16.10.82 mysql_user=root mysql_password='VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=' mysql_port=3306
  7. [dm_portal_servers]
  8. dm_portal ansible_host=172.16.10.71
  9. # 监控模块
  10. [prometheus_servers]
  11. prometheus ansible_host=172.16.10.71
  12. [grafana_servers]
  13. grafana ansible_host=172.16.10.71
  14. [alertmanager_servers]
  15. alertmanager ansible_host=172.16.10.71
  16. # 全局变量
  17. [all:vars]
  18. cluster_name = test-cluster
  19. ansible_user = tidb
  20. dm_version = {version}
  21. deploy_dir = /data1/dm
  22. grafana_admin_user = "admin"
  23. grafana_admin_password = "admin"

{version} 为当前 DM-Ansible 对应的版本号。关于 DM-worker 参数的更多信息,请参考 DM-worker 配置及参数描述

选项 2:使用单节点上多个 DM-worker 实例的集群拓扑

节点主机 IP服务
node1172.16.10.71DM-master, Prometheus, Grafana, Alertmanager, DM Portal
node2172.16.10.72DM-worker1-1, DM-worker1-2
node3172.16.10.73DM-worker2-1, DM-worker2-2

编辑 inventory.ini 文件时,请注意区分这些变量:server_iddeploy_dir,和 dm_worker_port

  1. # DM 模块
  2. [dm_master_servers]
  3. dm_master ansible_host=172.16.10.71
  4. [dm_worker_servers]
  5. dm_worker1_1 ansible_host=172.16.10.72 server_id=101 deploy_dir=/data1/dm_worker dm_worker_port=8262 mysql_host=172.16.10.81 mysql_user=root mysql_password='VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=' mysql_port=3306
  6. dm_worker1_2 ansible_host=172.16.10.72 server_id=102 deploy_dir=/data2/dm_worker dm_worker_port=8263 mysql_host=172.16.10.82 mysql_user=root mysql_password='VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=' mysql_port=3306
  7. dm_worker2_1 ansible_host=172.16.10.73 server_id=103 deploy_dir=/data1/dm_worker dm_worker_port=8262 mysql_host=172.16.10.83 mysql_user=root mysql_password='VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=' mysql_port=3306
  8. dm_worker2_2 ansible_host=172.16.10.73 server_id=104 deploy_dir=/data2/dm_worker dm_worker_port=8263 mysql_host=172.16.10.84 mysql_user=root mysql_password='VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=' mysql_port=3306
  9. [dm_portal_servers]
  10. dm_portal ansible_host=172.16.10.71
  11. # 监控模块
  12. [prometheus_servers]
  13. prometheus ansible_host=172.16.10.71
  14. [grafana_servers]
  15. grafana ansible_host=172.16.10.71
  16. [alertmanager_servers]
  17. alertmanager ansible_host=172.16.10.71
  18. # 全局变量
  19. [all:vars]
  20. cluster_name = test-cluster
  21. ansible_user = tidb
  22. dm_version = {version}
  23. deploy_dir = /data1/dm
  24. grafana_admin_user = "admin"
  25. grafana_admin_password = "admin"

{version} 为当前 DM-Ansible 对应的版本号。

DM-worker 配置及参数描述

变量名称描述
source_idDM-worker 绑定到的一个数据库实例或是具有主从架构的复制组。当发生主从切换的时候,只需要更新 mysql_hostmysql_port 而不用更改该 ID 标识。
server_idDM-worker 伪装成一个 MySQL slave,该变量即为这个 slave 的 server ID,在 MySQL 集群中需保持全局唯一。取值范围 0 ~ 4294967295。v1.0.2 及以上版本的 DM 会自动生成,不需要手动配置。
mysql_host上游 MySQL 主机。
mysql_user上游 MySQL 用户名,默认值为 “root”。
mysql_password上游 MySQL 用户密码,需使用 dmctl 工具加密。请参考使用 dmctl 加密上游 MySQL 用户密码
mysql_port上游 MySQL 端口, 默认 3306。
enable_gtidDM-worker 是否使用全局事务标识符(GTID)拉取 binlog。使用前提是在上游 MySQL 已开启 GTID 模式。
relay_binlog_nameDM-worker 是否从指定 binlog 文件位置开始拉取 binlog。仅适用于本地无有效 relay log 的情况。v1.0.2 及以上版本的 DM 会默认从最新位置开始拉取 binlog,一般情况下不需要手动配置。
relay_binlog_gtidDM-worker 是否从指定 GTID 位置开始拉取 binlog。仅适用于本地无有效 relay log,且 enable_gtid 设置为 true 的情况。v1.0.2 及以上版本的 DM 会默认从最新位置开始拉取 binlog,一般情况下不需要手动配置。
flavor代表 MySQL 的版本发布类型。 如果是官方版本,Percona 版,或 Cloud MySQL 版,其值为 “mysql”。 如果是 MariaDB,其值为 “mariadb”。默认值是 “mysql”。v1.0.2 及以上版本的 DM 会自动判断上游版本,不需要手动配置。

关于 deploy_dir 配置的更多信息,请参考配置部署目录

使用 dmctl 加密上游 MySQL 用户密码

假定上游 MySQL 的用户密码为 123456,运行以下命令,并将生成的字符串添加至 DM-worker 的 mysql_password 变量。

  1. cd /home/tidb/dm-ansible/resources/bin &&
  2. ./dmctl -encrypt 123456
  1. VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=

第 8 步:编辑 inventory.ini 文件中的变量

此步介绍如何编辑部署目录中的变量,如何配置 relay log 同步位置以及 relay log GTID 的同步模式。此外,还会描述 inventory.ini 中的全局变量。

配置部署目录

编辑 deploy_dir 变量以配置部署目录。

  • 全局变量默认设为 /home/tidb/deploy,适用于所有服务。如果数据盘挂载于 /data1 目录,您可以通过以下修改将其变更至 /data1/dm
  1. ## Global variables.
  2. [all:vars]
  3. deploy_dir = /data1/dm
  • 如果需要为某个服务创建单独的部署目录,您可以在 inventory.ini 中配置服务主机列表的同时设置 host 变量。此操作需要您添加第一列别名,以避免在混合服务部署场景下产生混淆。
  1. dm-master ansible_host=172.16.10.71 deploy_dir=/data1/deploy

配置 relay log 同步位置

首次启动 DM-worker 时,您需要配置 relay_binlog_name 变量以指定 DM-worker 拉取上游 MySQL 或 MariaDB binlog 的起始位置。

  1. [dm_worker_servers]
  2. dm-worker1 ansible_host=172.16.10.72 source_id="mysql-replica-01" server_id=101 relay_binlog_name="binlog.000011" mysql_host=172.16.10.81 mysql_user=root mysql_password='VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=' mysql_port=3306
  3. dm-worker2 ansible_host=172.16.10.73 source_id="mysql-replica-02" server_id=102 relay_binlog_name="binlog.000002" mysql_host=172.16.10.82 mysql_user=root mysql_password='VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=' mysql_port=3306

注意:

如未设定 relay_binlog_name,v1.0.2 之前版本的 DM-worker 将从上游 MySQL 或 MariaDB 现有最早时间点的 binlog 文件开始拉取 binlog,拉取到数据同步任务需要的最新 binlog 可能需要很长时间;v1.0.2 及之后版本的 DM-worker 将从最新时间点的 binlog 文件开始拉取 binlog,一般情况下不需要手动配置。

开启 relay log GTID 同步模式

在 DM 集群中,DM-worker 的 relay log 处理单元负责与上游 MySQL 或 MariaDB 通信,从而将 binlog 拉取至本地文件系统。

DM 目前支持 MySQL GTID 和 MariaDB GTID。您可以通过配置以下项目开启 relay log GTID 同步模式:

  • enable_gtid:打开 relay log GTID 同步模式以处理 master 和 slave 易位的场景

  • relay_binlog_gtid:指定 DM-worker 开始拉取对应上游 MySQL 或 MariaDB binlog 的起始位置

示例配置如下:

  1. [dm_worker_servers]
  2. dm-worker1 ansible_host=172.16.10.72 source_id="mysql-replica-01" server_id=101 enable_gtid=true relay_binlog_gtid="aae3683d-f77b-11e7-9e3b-02a495f8993c:1-282967971,cc97fa93-f5cf-11e7-ae19-02915c68ee2e:1-284361339" mysql_host=172.16.10.81 mysql_user=root mysql_password='VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=' mysql_port=3306
  3. dm-worker2 ansible_host=172.16.10.73 source_id="mysql-replica-02" server_id=102 relay_binlog_name=binlog.000002 mysql_host=172.16.10.82 mysql_user=root mysql_password='VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=' mysql_port=3306

全局变量

变量名称描述
cluster_name集群名称,可调整
dm_versionDM 版本,默认已配置
grafana_admin_userGrafana 管理员用户名称,默认值 admin
grafana_admin_passwordGrafana 管理员账户的密码,用于通过 Ansible 导入 Dashboard。默认值为 admin。如果您在 Grafana 网页端修改了密码,请更新此变量。

第 9 步:部署 DM 集群

使用 ansible-playbook 运行 Playbook,默认并发数量是 5。如果部署目标机器较多,您可以使用 -f 参数增加并发数量,例如,ansible-playbook deploy.yml -f 10

以下部署操作示例使用中运行服务的用户为 tidb

  • 编辑 dm-ansible/inventory.ini 文件,确保 ansible_user = tidb
  1. ansible_user = tidb

注意:

请勿将 ansible_user 设为 root,因为 tidb-ansible 限制服务需以普通用户运行。

运行以下命令。如果所有服务都返回 tidb,则 SSH 互信配置成功。

  1. ansible -i inventory.ini all -m shell -a 'whoami'

运行以下命令。如果所有服务都返回 root,则 tidb 用户免密 sudo 操作配置成功。

  1. ansible -i inventory.ini all -m shell -a 'whoami' -b
  • 修改内核参数,并部署 DM 集群组件和监控组件。
  1. ansible-playbook deploy.yml
  • 启动 DM 集群。
  1. ansible-playbook start.yml

此操作会按顺序启动 DM 集群的所有组件,包括 DM-master,DM-worker,以及监控组件。当一个 DM 集群被关闭后,您可以使用该命令将其开启。

第 10 步:关闭 DM 集群

如果您需要关闭一个 DM 集群,运行以下命令:

  1. ansible-playbook stop.yml

该操作会按顺序关闭整个 DM 集群中的所有组件,包括 DM-master,DM-worker,以及监控组件。

常见部署问题

默认服务端口

组件端口变量默认端口描述
DM-masterdm_master_port8261DM-master 服务交流端口
DM-workerdm_worker_port8262DM-worker 服务交流端口
Prometheusprometheus_port9090Prometheus 服务交流端口
Grafanagrafana_port3000外部 Web 监控服务及客户端(浏览器)访问端口
Alertmanageralertmanager_port9093Alertmanager 服务交流端口

自定义端口

编辑 inventory.ini 文件,将服务端口的相关主机变量添加在对应服务 IP 地址后:

  1. dm_master ansible_host=172.16.10.71 dm_master_port=18261

更新 DM-Ansible

  • 使用 tidb 账户登录至中控机,进入 /home/tidb 目录,然后备份dm-ansible 文件夹。
  1. cd /home/tidb && \
  2. mv dm-ansible dm-ansible-bak
  • 下载指定版本 DM-Ansible,解压。
  1. cd /home/tidb && \
  2. wget https://download.pingcap.org/dm-ansible-{version}.tar.gz && \
  3. tar -xzvf dm-ansible-{version}.tar.gz && \
  4. mv dm-ansible-{version} dm-ansible
  • 迁移 inventory.ini 配置文件。
  1. cd /home/tidb && \
  2. cp dm-ansible-bak/inventory.ini dm-ansible/inventory.ini
  • 迁移 dmctl 配置。
  1. cd /home/tidb/dm-ansible-bak/dmctl && \
  2. cp * /home/tidb/dm-ansible/dmctl/
  • 用 Playbook 下载最新的 DM 二进制文件。此文件会自动替换 /home/tidb/dm-ansible/resource/bin/ 目录下的二进制文件。
  1. ansible-playbook local_prepare.yml