Kubernetes 上的 TiDB 工具指南

Kubernetes 上的 TiDB 运维管理需要使用一些开源工具。同时,在 Kubernetes 上使用 TiDB 生态工具时,也有特殊的操作要求。本文档详细描述 Kubernetes 上的 TiDB 相关的工具及其使用方法。

在 Kubernetes 上使用 PD Control

PD Control 是 PD 的命令行工具,在使用 PD Control 操作 Kubernetes 上的 TiDB 集群时,需要先使用 kubectl port-forward 打开本地到 PD 服务的连接:

  1. kubectl port-forward -n <namespace> svc/<cluster-name>-pd 2379:2379 &>/tmp/portforward-pd.log &

执行上述命令后,就可以通过 127.0.0.1:2379 访问到 PD 服务,从而直接使用 pd-ctl 命令的默认参数执行操作,如:

  1. pd-ctl -d config show

假如你本地的 2379 被占据,则需要选择其它端口:

  1. kubectl port-forward -n <namespace> svc/<cluster-name>-pd <local-port>:2379 &>/tmp/portforward-pd.log &

此时,需要为 pd-ctl 命令显式指定 PD 端口:

  1. pd-ctl -u 127.0.0.1:<local-port> -d config show

在 Kubernetes 上使用 TiKV Control

TiKV Control 是 TiKV 的命令行工具。在使用 TiKV Control 操作 Kubernetes 上的 TiDB 集群时,针对 TiKV Control 的不同操作模式,有不同的操作步骤。

  • 远程模式:此模式下 tikv-ctl 命令需要通过网络访问 TiKV 服务或 PD 服务,因此需要先使用 kubectl port-forward 打开本地到 PD 服务以及目标 TiKV 节点的连接:

    1. kubectl port-forward -n <namespace> svc/<cluster-name>-pd 2379:2379 &>/tmp/portforward-pd.log &
    1. kubectl port-forward -n <namespace> <tikv-pod-name> 20160:20160 &>/tmp/portforward-tikv.log &

    打开连接后,即可通过本地的对应端口访问 PD 服务和 TiKV 节点:

    1. $ tikv-ctl --host 127.0.0.1:20160 <subcommands>
    1. tikv-ctl --pd 127.0.0.1:2379 compact-cluster
  • 本地模式:本地模式需要访问 TiKV 的数据文件,并且需要停止正在运行的 TiKV 实例。需要先使用诊断模式关闭 TiKV 实例自动重启,关闭 TiKV 进程,再使用 tkctl debug 命令在目标 TiKV Pod 中启动一个包含 tikv-ctl 可执行文件的新容器来执行操作,步骤如下:

    1. 进入诊断模式:

      1. kubectl annotate pod <tikv-pod-name> -n <namespace> runmode=debug
    2. 关闭 TiKV 进程:

      1. kubectl exec <tikv-pod-name> -n <namespace> -c tikv -- kill -s TERM 1
    3. 启动 debug 容器:

      1. tkctl debug <tikv-pod-name> -c tikv
    4. 开始使用 tikv-ctl 的本地模式,需要注意的是 tikv 容器的根文件系统在 /proc/1/root 下,因此执行命令时也需要调整数据目录的路径:

      1. tikv-ctl --db /path/to/tikv/db size -r 2

      Kubernetes 上 TiKV 实例在 debug 容器中的的默认 db 路径是 /proc/1/root/var/lib/tikv/db size -r 2

在 Kubernetes 上使用 TiDB Control

TiDB Control 是 TiDB 的命令行工具,使用 TiDB Control 时,需要从本地访问 TiDB 节点和 PD 服务,因此建议使用 kubectl port-forward 打开到集群中 TiDB 节点和 PD 服务的连接:

  1. kubectl port-forward -n <namespace> svc/<cluster-name>-pd 2379:2379 &>/tmp/portforward-pd.log &
  1. kubectl port-forward -n <namespace> <tidb-pod-name> 10080:10080 &>/tmp/portforward-tidb.log &

接下来便可开始使用 tidb-ctl 命令:

  1. tidb-ctl schema in mysql

使用 Helm

Helm 是一个 Kubernetes 的包管理工具,确保安装的 Helm 版本为 2.11.0 ≤ Helm < 2.16.4。安装步骤如下:

  1. 参考官方文档安装 Helm 客户端
  2. 安装 Helm 服务端

    在集群中应用 Helm 服务端组件 tiller 所需的 RBAC 规则,并安装 tiller

    1. kubectl apply -f https://raw.githubusercontent.com/pingcap/tidb-operator/master/manifests/tiller-rbac.yaml && \
    2. helm init --service-account=tiller --upgrade

    如果无法访问 gcr.io,你可以尝试 mirror 仓库:

    1. helm init --service-account=tiller --upgrade --tiller-image registry.cn-hangzhou.aliyuncs.com/google_containers/tiller:$(helm version --client --short | grep -Eo 'v[0-9]\.[0-9]+\.[0-9]+')

    通过下面命令确认 tiller Pod 进入 running 状态:

    1. kubectl get po -n kube-system -l name=tiller

    如果 Kubernetes 集群没有启用 RBAC,那么可以直接使用下列命令安装 tiller

    1. helm init --upgrade

Kubernetes 应用在 Helm 中被打包为 chart。PingCAP 针对 Kubernetes 上的 TiDB 部署运维提供了多个 Helm chart:

  • tidb-operator:用于部署 TiDB Operator;
  • tidb-cluster:用于部署 TiDB 集群;
  • tidb-backup:用于 TiDB 集群备份恢复;
  • tidb-lightning:用于 TiDB 集群导入数据;
  • tidb-drainer:用于部署 TiDB Drainer;
  • tikv-importer:用于部署 TiKV Importer;

这些 chart 都托管在 PingCAP 维护的 helm chart 仓库 https://charts.pingcap.org/ 中,你可以通过下面的命令添加该仓库:

  1. helm repo add pingcap https://charts.pingcap.org/

添加完成后,可以使用 helm search 搜索 PingCAP 提供的 chart:

  1. helm search pingcap -l
  1. NAME CHART VERSION APP VERSION DESCRIPTION
  2. pingcap/tidb-backup v1.0.0 A Helm chart for TiDB Backup or Restore
  3. pingcap/tidb-cluster v1.0.0 A Helm chart for TiDB Cluster
  4. pingcap/tidb-operator v1.0.0 tidb-operator Helm chart for Kubernetes

当新版本的 chart 发布后,你可以使用 helm repo update 命令更新本地对于仓库的缓存:

  1. helm repo update

Helm 的常用操作有部署(helm install)、升级(helm upgrade)、销毁(helm del)、查询(helm ls)。Helm chart 往往都有很多可配置参数,通过命令行进行配置比较繁琐,因此推荐使用 YAML 文件的形式来编写这些配置项,基于 Helm 社区约定俗称的命名方式,我们在文档中将用于配置 chart 的 YAML 文件称为 values.yaml 文件。

执行部署、升级、销毁等操作前,可以使用 helm ls 查看集群中已部署的应用:

  1. helm ls

在执行部署和升级操作时,必须指定使用的 chart 名字(chart-name)和部署后的应用名(release-name),还可以指定一个或多个 values.yaml 文件来配置 chart。此外,假如对 chart 有特定的版本需求,则需要通过 --version 参数指定 chart-version (默认为最新的 GA 版本)。命令形式如下:

  • 执行安装:

    1. helm install <chart-name> --name=<release-name> --namespace=<namespace> --version=<chart-version> -f <values-file>
  • 执行升级(升级可以是修改 chart-version 升级到新版本的 chart,也可以是修改 values.yaml 文件更新应用配置):

    1. helm upgrade <release-name> <chart-name> --version=<chart-version> -f <values-file>

最后,假如要删除 helm 部署的应用,可以执行:

  1. helm del --purge <release-name>

更多 helm 的相关文档,请参考 Helm 官方文档

使用 Terraform

Terraform 是一个基础设施即代码(Infrastructure as Code)管理工具。它允许用户使用声明式的风格描述自己的基础设施,并针对描述生成执行计划来创建或调整真实世界的计算资源。Kubernetes 上的 TiDB 使用 Terraform 来在公有云上创建和管理 TiDB 集群。

你可以参考 Terraform 官方文档 来安装 Terraform。