title: 在 GCP GKE 上部署 TiDB 集群 summary: 了解如何在 GCP GKE 上部署 TiDB 集群。

category: how-to

1.2.3.1.2 在 GCP GKE 上部署 TiDB 集群

本节介绍如何使用个人电脑(Linux 或 macOS 系统)在 GCP GKE 上部署 TiDB 集群。

警告:

当前多磁盘聚合功能存在一些已知问题,不建议在生产环境中每节点配置一块以上磁盘。我们正在修复此问题。

1. 环境准备

部署前,确认已安装以下软件:

2. 配置

为保证部署顺利,需要提前进行一些配置。在开始配置 Google Cloud SDK、API、Terraform 前,先下载以下资源:

  1. git clone --depth=1 https://github.com/pingcap/tidb-operator && \
  2. cd tidb-operator/deploy/gcp

配置 Google Cloud SDK

安装 Google Cloud SDK 后,需要执行 gcloud init 进行初始化

配置 API

如果使用的 GCP 项目是新项目,需确保以下 API 已启用:

  1. gcloud services enable cloudresourcemanager.googleapis.com \
  2. cloudbilling.googleapis.com iam.googleapis.com \
  3. compute.googleapis.com container.googleapis.com

配置 Terraform

要执行 Terraform 脚本,需要设置以下 3 个环境变量。可以等待 Terraform 提示再输入,也可以提前在 .tfvars 文件中定义变量。

  • GCP_CREDENTIALS_PATH:GCP 证书文件路径。

    • 建议另建一个服务账号给 Terraform 使用,参考创建与管理服务账号文档./create-service-account.sh 会创建最低权限的服务账号。

    • 参考服务账号密钥文档来创建服务账号密钥。下面脚本中的步骤详细说明了如何使用 deploy/gcp 目录中提供的脚本执行此操作。或者,如果自己创建服务账号和密钥,可以在创建时选择 JSON 类型的密钥。下载的包含私钥的 JSON 文件即所需的证书文件。

  • GCP_REGION:创建资源所在的区域,例如:us-west1

  • GCP_PROJECT:GCP 项目的名称。

要使用以上 3 个环境变量来配置 Terraform,可执行以下步骤:

(1) 将 GCP_REGION 替换为的 GCP Region。

  1. ```bash
  2. echo GCP_REGION=\"us-west1\" >> terraform.tfvars
  3. ```

(2) 将 GCP_PROJECT 替换为的 GCP 项目名称,确保连接的是正确的 GCP 项目。

  1. ```bash
  2. echo "GCP_PROJECT=\"$(gcloud config get-value project)\"" >> terraform.tfvars
  3. ```

(3) 初始化 Terraform。

  1. ```bash
  2. terraform init
  3. ```

(4) 为 Terraform 创建一个有限权限的服务账号,并设置证书路径。

  1. ```bash
  2. ./create-service-account.sh
  3. ```

Terraform 自动加载和填充匹配 terraform.tfvars*.auto.tfvars 文件的变量。相关详细信息,请参阅 Terraform 文档。上述步骤会使用 GCP_REGIONGCP_PROJECT 填充 terraform.tfvars 文件,使用 GCP_CREDENTIALS_PATH 填充 credentials.auto.tfvars 文件。

3. 部署 TiDB 集群

本小节介绍如何部署 TiDB 集群。

(1) 确定实例类型。

  1. - 如果只是想试一下 TiDB,又不想花费太高成本,可以采用轻量级的配置:
  2. ```bash
  3. cat small.tfvars >> terraform.tfvars
  4. ```
  5. - 如果要对生产环境的部署进行 benchmark 测试,则建议采用生产级的配置:
  6. ```bash
  7. cat prod.tfvars >> terraform.tfvars
  8. ```
  9. `prod.tfvars` 会默认创建一个新的 VPC,两个子网和一个 f1-micro 实例作为堡垒机,以及使用以下实例类型作为工作节点的 GKE 集群:
  10. * 3 n1-standard-4 实例:部署 PD
  11. * 3 n1-highmem-8 实例:部署 TiKV
  12. * 3 n1-standard-16 实例:部署 TiDB
  13. * 3 n1-standard-2 实例:部署监控组件
  14. 如上所述,生产环境的部署需要 91 CPU,超过了 GCP 项目的默认配额。可以参考[配额](https://cloud.google.com/compute/quotas)来增加项目配额。扩容同样需要更多 CPU。
  15. > **注意:**
  16. >
  17. > 工作节点的数量取决于指定 Region 中可用区的数量。大部分 Region 3 个可用区,但是 `us-central1` 4 个可用区。参考 [Regions and Zones](https://cloud.google.com/compute/docs/regions-zones/) 查看更多信息。参考[自定义](#自定义)部分来自定义区域集群的节点池。

(2) 启动脚本来部署 TiDB 集群:

  1. ```bash
  2. terraform apply
  3. ```
  4. > **注意:**
  5. >
  6. > 如果未提前设置上文所述的 3 个环境变量,执行 `terraform apply` 过程中会有提示出现,要求对 3 个变量进行设置。详情请参考[配置 Terraform](#配置-terraform)。
  7. 整个过程可能至少需要 10 分钟。`terraform apply` 执行成功后,会输出类似如下的信息:
  8. ```
  9. Apply complete! Resources: 23 added, 0 changed, 0 destroyed.
  10. Outputs:
  11. how_to_connect_to_default_cluster_tidb_from_bastion = mysql -h 172.31.252.20 -P 4000 -u root
  12. how_to_ssh_to_bastion = gcloud compute ssh tidb-cluster-bastion --zone us-west1-b
  13. how_to_set_reclaim_policy_of_pv_for_default_tidb_cluster_to_delete = kubectl --kubeconfig /.../credentials/kubeconfig_tidb-cluster get pvc -n tidb-cluster -o jsonpath='{.items[*].spec.volumeName}'|fmt -1 | xargs -I {} kubectl --kubeconfig /.../credentials/kubeconfig_tidb-cluster patch pv {} -p '{"spec":{"persistentVolumeReclaimPolicy":"Delete"}}'
  14. kubeconfig_file = ./credentials/kubeconfig_tidb-cluster
  15. monitor_lb_ip = 35.227.134.146
  16. monitor_port = 3000
  17. region = us-west1
  18. tidb_version = v3.0.1
  19. ```

4. 访问 TiDB 数据库

terraform apply 运行完成后,可执行以下步骤来访问 TiDB 数据库。注意用部署 TiDB 集群小节的输出信息替换 <> 部分的内容。

(1) 通过 ssh 远程连接到堡垒机。

  1. ```bash
  2. gcloud compute ssh <gke-cluster-name>-bastion --zone <zone>
  3. ```

(2) 通过 MySQL 客户端来访问 TiDB 集群。

  1. ```bash
  2. mysql -h <tidb_ilb_ip> -P 4000 -u root
  3. ```
  4. > **注意:**
  5. >
  6. > 通过 MySQL 连接 TiDB 前,需要先安装 MySQL 客户端。

5. 与 GKE 集群交互

可以通过 kubectlhelm 使用 kubeconfig 文件 credentials/kubeconfig_<gke_cluster_name> 和 GKE 集群交互。交互方式主要有以下两种。

注意:

gke_cluster_name 默认为 tidb-cluster,可以通过 variables.tfgke_name 修改。

  • 指定 --kubeconfig 参数:

    1. kubectl --kubeconfig credentials/kubeconfig_<gke_cluster_name> get po -n <tidb_cluster_name>
    1. helm --kubeconfig credentials/kubeconfig_<gke_cluster_name> ls
  • 设置 KUBECONFIG 环境变量:

    1. export KUBECONFIG=$PWD/credentials/kubeconfig_<gke_cluster_name>
    1. kubectl get po -n <tidb_cluster_name>
    1. helm ls

6. 升级 TiDB 集群

要升级 TiDB 集群,可执行以下步骤:

(1) 编辑 terraform.tfvars 文件,将 tidb_version 变量的值修改为更高版本。 (2) 运行 terraform apply

例如,要将 TiDB 集群升级到 4.0.0-rc.2,可设置 tidb_versionv4.0.0-rc.2

  1. tidb_version = "v4.0.0-rc.2"

升级过程会持续一段时间。可以通过以下命令来持续观察升级进度:

  1. kubectl --kubeconfig credentials/kubeconfig_<gke_cluster_name> get po -n <tidb_cluster_name> --watch

然后,可以访问数据库并通过 tidb_version() 确认 TiDB 集群是否升级成功:

  1. select tidb_version();
  1. *************************** 1. row ***************************
  2. tidb_version(): Release Version: v3.0.0-rc.2
  3. Git Commit Hash: 06f3f63d5a87e7f0436c0618cf524fea7172eb93
  4. Git Branch: HEAD
  5. UTC Build Time: 2019-05-28 12:48:52
  6. GoVersion: go version go1.12 linux/amd64
  7. Race Enabled: false
  8. TiKV Min Version: 2.1.0-alpha.1-ff3dd160846b7d1aed9079c389fc188f7f5ea13e
  9. Check Table Before Drop: false
  10. 1 row in set (0.001 sec)

7. 管理多个 TiDB 集群

一个 tidb-cluster 模块的实例对应一个 GKE 集群中的 TiDB 集群。要添加一个新的 TiDB 集群,可执行以下步骤:

(1) 编辑 tidbclusters.tf 文件来添加一个 tidb-cluster 模块。

  1. 例如:
  2. ```hcl
  3. module "example-tidb-cluster" {
  4. providers = {
  5. helm = "helm.gke"
  6. }
  7. source = "../modules/gcp/tidb-cluster"
  8. cluster_id = module.tidb-operator.cluster_id
  9. tidb_operator_id = module.tidb-operator.tidb_operator_id
  10. gcp_project = var.GCP_PROJECT
  11. gke_cluster_location = local.location
  12. gke_cluster_name = <gke-cluster-name>
  13. cluster_name = <example-tidb-cluster>
  14. cluster_version = "v3.0.1"
  15. kubeconfig_path = local.kubeconfig
  16. tidb_cluster_chart_version = "v1.0.0"
  17. pd_instance_type = "n1-standard-1"
  18. tikv_instance_type = "n1-standard-4"
  19. tidb_instance_type = "n1-standard-2"
  20. monitor_instance_type = "n1-standard-1"
  21. pd_node_count = 1
  22. tikv_node_count = 2
  23. tidb_node_count = 1
  24. monitor_node_count = 1
  25. }
  26. ```
  27. > **注意:**
  28. >
  29. > - 每个集群的 `cluster_name` 必须是唯一的。
  30. > - 为任一组件实际创建的总节点数等于配置文件中的节点数乘以该 Region 中可用区的个数。
  31. 可以通过 `kubectl` 获取创建的 TiDB 集群和监控组件的地址。如果希望 Terraform 脚本打印此信息,可在 `outputs.tf` 中添加一个 `output` 配置项,如下所示:
  32. ```hcl
  33. output "how_to_connect_to_example_tidb_cluster_from_bastion" {
  34. value = module.example-tidb-cluster.how_to_connect_to_tidb_from_bastion
  35. }
  36. ```
  37. 上述配置可使该脚本打印出用于连接 TiDB 集群的命令。

(2) 修改完成后,执行以下命令来创建集群。

  1. ```bash
  2. terraform init
  3. ```
  4. ```bash
  5. terraform apply
  6. ```

8. 扩容

如果需要扩容 TiDB 集群,可执行以下步骤:

(1) 按需在文件 terraform.tfvars 中设置 tikv_counttidb_count 变量。 (2) 运行 terraform apply

警告:

由于缩容过程中无法确定哪个节点会被删除,因此目前不支持集群缩容。通过修改 tikv_count 来进行缩容可能会导致数据丢失。

扩容过程会持续几分钟,可以通过以下命令来持续观察进度:

  1. kubectl --kubeconfig credentials/kubeconfig_<gke_cluster_name> get po -n <tidb_cluster_name> --watch

例如,可以将 tidb_count 从 1 改为 2 来扩容 TiDB:

  1. tidb_count = 2

注意:

增加节点数量会在每个可用区都增加节点。

9. 自定义

可以在 terraform.tfvars 文件来指定值。

自定义 GCP 资源

GCP 允许 n1-standard-1 或者更大的实例类型挂载本地 SSD,这提供了更好的自定义特性。

自定义 TiDB 参数配置

Terraform 脚本为 GKE 中的 TiDB 集群提供了默认设置。也可以在 tidbclusters.tf 中为每个 TiDB 集群指定一个覆盖配置 override_values 或者覆盖配置文件 override_values_file。如果同时配置两个变量,override_values 配置将生效,该自定义配置会覆盖默认设置,示例如下:

  1. override_values = <<EOF
  2. discovery:
  3. image: pingcap/tidb-operator:v1.0.1
  4. imagePullPolicy: IfNotPresent
  5. resources:
  6. limits:
  7. cpu: 250m
  8. memory: 150Mi
  9. requests:
  10. cpu: 30m
  11. memory: 30Mi
  12. EOF
  1. override_values_file = "./test-cluster.yaml"

集群默认使用 deploy/modules/gcp/tidb-cluster 模块中的 values/default.yaml 作为覆盖配置文件。

在 GKE 中,某些值不支持在 values.yaml 中自定义,包括集群版本、副本数、NodeSelector 以及 TolerationsNodeSelectorTolerations 由 Terraform 直接管理,以确保基础设施与 TiDB 集群之间的一致性。

如果需要自定义集群版本和副本数,可以修改 tidbclusters.tf 文件中每个 tidb-cluster module 的参数。

注意:

自定义配置中,不建议在 values.yaml 中包含以下配置(tidb-cluster module 默认固定配置):

  1. pd:
  2. storageClassName: pd-ssd
  3. tikv:
  4. stroageClassName: local-storage
  5. tidb:
  6. service:
  7. type: LoadBalancer
  8. annotations:
  9. cloud.google.com/load-balancer-type: "Internal"
  10. separateSlowLog: true
  11. monitor:
  12. storageClassName: pd-ssd
  13. persistent: true
  14. grafana:
  15. config:
  16. GF_AUTH_ANONYMOUS_ENABLED: "true"
  17. service:
  18. type: LoadBalancer

自定义 TiDB Operator

如果要自定义 TiDB Operator,可以使用 operator_helm_values 变量来指定覆盖配置或者使用 operator_helm_values_file 变量来指定覆盖配置文件。如果同时配置两个变量,operator_helm_values 配置将生效,该自定义配置会传递给 tidb-operator 模块,示例如下:

  1. operator_helm_values = <<EOF
  2. controllerManager:
  3. resources:
  4. limits:
  5. cpu: 250m
  6. memory: 150Mi
  7. requests:
  8. cpu: 30m
  9. memory: 30Mi
  10. EOF
  1. operator_helm_values_file = "./test-operator.yaml"

自定义日志

GKE 使用 Fluentd 作为其默认的日志收集工具,然后将日志转发到 Stackdriver。Fluentd 进程可能会占用大量资源,消耗大量的 CPU 和 RAM。Fluent Bit 是一种性能更高,资源占用更少的替代方案。与 Fluentd 相比,更建议在生产环境中使用 Fluent Bit。可参考在 GKE 集群中设置 Fluent Bit 的示例

自定义节点池

集群是按区域 (regional) 而非按可用区 (zonal) 来创建的。也就是说,GKE 向每个可用区复制相同的节点池,以实现更高的可用性。但对于 Grafana 这样的监控服务来说,通常没有必要维护相同的可用性。可以通过 gcloud 手动删除节点。

注意:

GKE 节点池通过实例组管理。如果使用 gcloud compute instances delete 命令删除某个节点,GKE 会自动重新创建节点并将其添加到集群。

如果需要从监控节点池中删掉一个节点,可采用如下步骤:

(1) 获取托管的实例组和所在可用区。

  1. ```bash
  2. gcloud compute instance-groups managed list | grep monitor
  3. ```
  4. 输出结果类似:
  5. ```
  6. gke-tidb-monitor-pool-08578e18-grp us-west1-b zone gke-tidb-monitor-pool-08578e18 0 0 gke-tidb-monitor-pool-08578e18 no
  7. gke-tidb-monitor-pool-7e31100f-grp us-west1-c zone gke-tidb-monitor-pool-7e31100f 1 1 gke-tidb-monitor-pool-7e31100f no
  8. gke-tidb-monitor-pool-78a961e5-grp us-west1-a zone gke-tidb-monitor-pool-78a961e5 1 1 gke-tidb-monitor-pool-78a961e5 no
  9. ```
  10. 第一列是托管的实例组,第二列是所在的可用区。

(2) 获取实例组中的实例名字。

  1. ```bash
  2. gcloud compute instance-groups managed list-instances <the-name-of-the-managed-instance-group> --zone <zone>
  3. ```
  4. 示例:
  5. ```bash
  6. gcloud compute instance-groups managed list-instances gke-tidb-monitor-pool-08578e18-grp --zone us-west1-b
  7. ```
  8. 输出结果类似:
  9. ```
  10. NAME ZONE STATUS ACTION INSTANCE_TEMPLATE VERSION_NAME LAST_ERROR
  11. gke-tidb-monitor-pool-08578e18-c7vd us-west1-b RUNNING NONE gke-tidb-monitor-pool-08578e18
  12. ```

(3) 通过指定托管的实例组和实例的名称来删掉该实例。

  1. 例如:
  2. ```bash
  3. gcloud compute instance-groups managed delete-instances gke-tidb-monitor-pool-08578e18-grp --instances=gke-tidb-monitor-pool-08578e18-c7vd --zone us-west1-b
  4. ```

10. 销毁 TiDB 集群

如果不想再继续使用 TiDB 集群,可以通过如下命令进行销毁:

  1. terraform destroy

注意:

在执行 terraform destroy 过程中,可能会发生错误:Error reading Container Cluster "tidb": Cluster "tidb" has status "RECONCILING" with message""。当 GCP 升级 Kubernetes master 节点时会出现该问题。一旦问题出现,就无法删除集群,需要等待 GCP 升级结束,再次执行 terraform destroy

删除磁盘

如果不再需要之前的数据,并且想要删除正在使用的磁盘,有以下两种方法可以完成此操作:

  • 手动删除:在 Google Cloud Console 中删除磁盘,或使用 gcloud 命令行工具执行删除操作。

  • 自动删除:在执行 terraform destroy 之前将 Kubernetes 的 PV (Persistent Volume) 回收策略设置为 Delete,具体操作为在 terraform destroy 之前运行以下 kubectl 命令:

    1. kubectl --kubeconfig /path/to/kubeconfig/file get pvc -n namespace-of-tidb-cluster -o jsonpath='{.items[*].spec.volumeName}'|fmt -1 | xargs -I {} kubectl --kubeconfig /path/to/kubeconfig/file patch pv {} -p '{"spec":{"persistentVolumeReclaimPolicy":"Delete"}}'

    上述命令将获取 TiDB 集群命名空间中的 PVC (Persistent Volume Claim),并将绑定的 PV 的回收策略设置为 Delete。在执行 terraform destroy 过程中删除 PVC 时,也会将磁盘删除。

    下面是一个名为 change-pv-reclaimpolicy.sh 的脚本。相对于仓库根目录来说,它在 deploy/gcp 目录,简化了上述过程。

    1. ./change-pv-reclaimpolicy.sh /path/to/kubeconfig/file <tidb-cluster-namespace>

11. 管理多个 Kubernetes 集群

本节介绍管理多个 Kubernetes 集群的最佳实践,其中每个 Kubernetes 集群都可以部署一个或多个 TiDB 集群。

在 TiDB 的案例中,Terraform 模块通常结合了几个子模块:

  • tidb-operator:为 TiDB 集群提供 Kubernetes Control Plane 并部署 TiDB Operator。
  • tidb-cluster:在目标 Kubernetes 集群中创建资源池并部署 TiDB 集群。
  • 一个 vpc 模块,一个 bastion 模块和一个 project-credentials 模块:专门用于 GKE 上的 TiDB 集群。

管理多个 Kubernetes 集群的最佳实践有以下两点:

(1) 为每个 Kubernetes 集群创建一个新目录。 (2) 根据具体需求,使用 Terraform 脚本将上述模块进行组合。

如果采用了最佳实践,集群中的 Terraform 状态不会相互干扰,并且可以很方便地管理多个 Kubernetes 集群。示例如下(假设已在项目根目录):

  1. mkdir -p deploy/gcp-staging && \
  2. vim deploy/gcp-staging/main.tf

deploy/gcp-staging/main.tf 中的内容类似:

  1. provider "google" {
  2. credentials = file(var.GCP_CREDENTIALS_PATH)
  3. region = var.GCP_REGION
  4. project = var.GCP_PROJECT
  5. }
  6. // required for taints on node pools
  7. provider "google-beta" {
  8. credentials = file(var.GCP_CREDENTIALS_PATH)
  9. region = var.GCP_REGION
  10. project = var.GCP_PROJECT
  11. }
  12. locals {
  13. gke_name = "another-gke-name"
  14. credential_path = "${path.cwd}/credentials"
  15. kubeconfig = "${local.credential_path}/kubeconfig_${var.gke_name}"
  16. }
  17. module "project-credentials" {
  18. source = "../modules/gcp/project-credentials"
  19. path = local.credential_path
  20. }
  21. module "vpc" {
  22. source = "../modules/gcp/vpc"
  23. create_vpc = true
  24. gcp_project = var.GCP_PROJECT
  25. gcp_region = var.GCP_REGION
  26. vpc_name = "${locals.gke_name}-vpc-network"
  27. private_subnet_name = "${locals.gke_name}-private-subnet"
  28. public_subnet_name = "${locals.gke_name}-public-subnet"
  29. }
  30. module "tidb-operator" {
  31. source = "../modules/gcp/tidb-operator"
  32. gke_name = locals.gke_name
  33. vpc_name = module.vpc.vpc_name
  34. subnetwork_name = module.vpc.private_subnetwork_name
  35. gcp_project = var.GCP_PROJECT
  36. gcp_region = var.GCP_REGION
  37. kubeconfig_path = local.kubeconfig
  38. tidb_operator_version = "v1.0.0"
  39. }
  40. module "bastion" {
  41. source = "../modules/gcp/bastion"
  42. vpc_name = module.vpc.vpc_name
  43. public_subnet_name = module.vpc.public_subnetwork_name
  44. gcp_project = var.GCP_PROJECT
  45. bastion_name = "${locals.gke_name}-tidb-bastion"
  46. }
  47. # HACK: 强制使 Helm 依赖 GKE 集群
  48. data "local_file" "kubeconfig" {
  49. depends_on = [module.tidb-operator.cluster_id]
  50. filename = module.tidb-operator.kubeconfig_path
  51. }
  52. resource "local_file" "kubeconfig" {
  53. depends_on = [module.tidb-operator.cluster_id]
  54. content = data.local_file.kubeconfig.content
  55. filename = module.tidb-operator.kubeconfig_path
  56. }
  57. provider "helm" {
  58. alias = "gke"
  59. insecure = true
  60. install_tiller = false
  61. kubernetes {
  62. config_path = local_file.kubeconfig.filename
  63. }
  64. }
  65. module "tidb-cluster-a" {
  66. providers = {
  67. helm = "helm.gke"
  68. }
  69. source = "../modules/gcp/tidb-cluster"
  70. gcp_project = var.GCP_PROJECT
  71. gke_cluster_location = var.GCP_REGION
  72. gke_cluster_name = locals.gke_name
  73. cluster_name = "tidb-cluster-a"
  74. cluster_version = "v3.0.1"
  75. kubeconfig_path = module.tidb-operator.kubeconfig_path
  76. tidb_cluster_chart_version = "v1.0.0"
  77. pd_instance_type = "n1-standard-1"
  78. tikv_instance_type = "n1-standard-4"
  79. tidb_instance_type = "n1-standard-2"
  80. monitor_instance_type = "n1-standard-1"
  81. }
  82. module "tidb-cluster-b" {
  83. providers = {
  84. helm = "helm.gke"
  85. }
  86. source = "../modules/gcp/tidb-cluster"
  87. gcp_project = var.GCP_PROJECT
  88. gke_cluster_location = var.GCP_REGION
  89. gke_cluster_name = locals.gke_name
  90. cluster_name = "tidb-cluster-b"
  91. cluster_version = "v3.0.1"
  92. kubeconfig_path = module.tidb-operator.kubeconfig_path
  93. tidb_cluster_chart_version = "v1.0.0"
  94. pd_instance_type = "n1-standard-1"
  95. tikv_instance_type = "n1-standard-4"
  96. tidb_instance_type = "n1-standard-2"
  97. monitor_instance_type = "n1-standard-1"
  98. }
  99. output "how_to_ssh_to_bastion" {
  100. value= module.bastion.how_to_ssh_to_bastion
  101. }
  102. output "connect_to_tidb_cluster_a_from_bastion" {
  103. value = module.tidb-cluster-a.how_to_connect_to_default_cluster_tidb_from_bastion
  104. }
  105. output "connect_to_tidb_cluster_b_from_bastion" {
  106. value = module.tidb-cluster-b.how_to_connect_to_default_cluster_tidb_from_bastion
  107. }

如上述代码所示,可以在每个模块调用中省略几个参数,因为有合理的默认值,并且可以轻松地自定义配置。例如,如果不需要调用堡垒机模块,将其删除即可。

如果要自定义每个字段,可使用以下两种方法中的一种:

  • 直接修改 *.tf 文件中 module 的参数配置。
  • 参考每个模块的 variables.tf 文件,了解所有可修改的参数,并在 terraform.tfvars 中设置自定义值。

注意:

  • 创建新目录时,请注意其与 Terraform 模块的相对路径,这会影响模块调用期间的 source 参数。
  • 如果要在 tidb-operator 项目之外使用这些模块,务必确保复制整个 modules 目录并保持目录中每个模块的相对路径不变。
  • 由于 Terraform 的限制(参见 hashicorp/terraform#2430),上面示例中添加了 HACK: 强制使 Helm 依赖 GKE 集群部分对 Helm provider 进行处理。如果自己编写 tf 文件,需要包含这部分内容。

如果不愿意编写 Terraform 代码,还可以复制 deploy/gcp 目录来创建新的 Kubernetes 集群。但需要注意,不能复制已被执行 terraform apply 命令的目录。在这种情况下,建议先克隆新的仓库再复制目录。