在 Kubernetes 上部署 TiFlash

本文介绍如何在 Kubernetes 上部署 TiFlash。

前置条件

  • TiDB Operator 部署完成。

全新部署 TiDB 集群同时部署 TiFlash

参考 在标准 Kubernetes 上部署 TiDB 集群进行部署。

在现有 TiDB 集群上新增 TiFlash 组件

编辑 TidbCluster Custom Resource:

  1. kubectl edit tc ${cluster_name} -n ${namespace}

按照如下示例增加 TiFlash 配置:

  1. spec:
  2. tiflash:
  3. baseImage: pingcap/tiflash
  4. maxFailoverCount: 3
  5. replicas: 1
  6. storageClaims:
  7. - resources:
  8. requests:
  9. storage: 100Gi
  10. storageClassName: local-storage

其他参数可以参考集群配置文档进行配置。

值得注意的是,如果需要部署企业版的 TiFlash,需要将 db.yaml 中 spec.tiflash.baseImage 配置为企业版镜像,格式为 pingcap/tiflash-enterprise

例如:

  1. spec:
  2. tiflash:
  3. baseImage: pingcap/tiflash-enterprise

TiFlash 支持挂载多个 PV,如果要为 TiFlash 配置多个 PV,可以在 tiflash.storageClaims 下面配置多项,每一项可以分别配置 storage reqeuststorageClassName,例如:

  1. tiflash:
  2. baseImage: pingcap/tiflash
  3. maxFailoverCount: 3
  4. replicas: 1
  5. storageClaims:
  6. - resources:
  7. requests:
  8. storage: 100Gi
  9. storageClassName: local-storage
  10. - resources:
  11. requests:
  12. storage: 100Gi
  13. storageClassName: local-storage

警告:

由于 TiDB Operator 会按照 storageClaims 列表中的配置按顺序自动挂载 PV,如果需要为 TiFlash 增加磁盘,请确保只在列表原有配置最后添加,并且不能修改列表中原有配置的顺序。

TiDB Operator 通过创建 StatefulSet 管理 TiFlash,由于 StatefulSet 创建后不支持修改 volumeClaimTemplates,因此直接更新 storageClaims 添加磁盘不会为 Pod 挂载上额外的 PV,解决方案有下面两种:

  • 第一次部署 TiFlash 集群就规划好使用几个 PV,配置好 storageClaims
  • 如果确实要新增 PV,配置好 storageClaims 后,需要手动删除 TiFlash StatefulSet (kubectl delete sts -n ${namespace} ${cluster_name}-tiflash),等待 TiDB Operator 重新创建。

新增部署 TiFlash 需要 PD 配置 replication.enable-placement-rules: true,通过上述步骤在 TidbCluster 中增加 TiFlash 配置后,TiDB Operator 会自动为 PD 配置 replication.enable-placement-rules: true

如果服务器没有外网,请参考部署 TiDB 集群在有外网的机器上将用到的 Docker 镜像下载下来并上传到服务器上。

移除 TiFlash

  1. 调整同步到 TiFlash 集群中的数据表的副本数。

    需要将集群中所有同步到 TiFlash 的数据表的副本数都设置为 0,才能完全移除 TiFlash。

    1. 参考访问 TiDB 集群的步骤连接到 TiDB 服务。

    2. 使用以下命令,调整同步到 TiFlash 集群中的数据表的副本数:

      1. alter table <db_name>.<table_name> set tiflash replica 0;
  2. 等待相关表的 TiFlash 副本被删除。

    连接到 TiDB 服务,执行如下命令,查不到相关表的同步信息时即为副本被删除:

    1. SELECT * FROM information_schema.tiflash_replica WHERE TABLE_SCHEMA = '<db_name>' and TABLE_NAME = '<table_name>';
  3. 执行以下命令修改 spec.tiflash.replicas 为 0 来移除 TiFlash Pod。

    1. kubectl edit tidbcluster ${cluster_name} -n ${namespace}
  4. 检查 TiFlash Pod 和 TiFlash 节点 store 状态。

    首先执行以下命令检查 TiFlash Pod 是否被成功删除:

    1. kubectl get pod -n ${namespace} -l app.kubernetes.io/component=tiflash,app.kubernetes.io/instance=${cluster_name}

    如果输出为空,则表示 TiFlash 集群的 Pod 已经被成功删除。

    使用以下命令检查 TiFlash 节点 store 状态是否为 Tombstone:

    1. kubectl get tidbcluster ${cluster_name} -n ${namespace} -o yaml

    输出结果中的 status.tiflash 字段值类似下方实例。

    1. tiflash:
    2. ...
    3. tombstoneStores:
    4. "88":
    5. id: "88"
    6. ip: basic-tiflash-0.basic-tiflash-peer.default.svc
    7. lastHeartbeatTime: "2020-12-31T04:42:12Z"
    8. lastTransitionTime: null
    9. leaderCount: 0
    10. podName: basic-tiflash-0
    11. state: Tombstone
    12. "89":
    13. id: "89"
    14. ip: basic-tiflash-1.basic-tiflash-peer.default.svc
    15. lastHeartbeatTime: "2020-12-31T04:41:50Z"
    16. lastTransitionTime: null
    17. leaderCount: 0
    18. podName: basic-tiflash-1
    19. state: Tombstone

    只有 TiFlash 集群的所有 Pod 已经被成功删除并且所有 TiFlash 节点 store 状态都变为 Tombstone 后,才能进行下一步操作。

  5. 删除 TiFlash StatefulSet。

    使用以下命令修改 TiDB Cluster CR,删除 spec.tiflash 字段。

    1. kubectl edit tidbcluster ${cluster_name} -n ${namespace}

    使用以下命令删除 TiFlash StatefulSet:

    1. kubectl delete statefulsets -n ${namespace} -l app.kubernetes.io/component=tiflash,app.kubernetes.io/instance=${cluster_name}

    执行以下命令检查是否成功删除 TiFlash 集群的 StatefulSet:

    1. kubectl get sts -n ${namespace} -l app.kubernetes.io/component=tiflash,app.kubernetes.io/instance=${cluster_name}

    如果输出为空,则表示 TiFlash 集群的 StatefulSet 已经被成功删除。

  6. (可选项) 删除 PVC 和 PV。

    如果确认 TiFlash 中的数据不会被使用,想要删除数据,需要严格按照以下操作步骤来删除 TiFlash 中的数据。

    1. 删除 PV 对应的 PVC 对象

      1. kubectl delete pvc -n ${namespace} -l app.kubernetes.io/component=tiflash,app.kubernetes.io/instance=${cluster_name}
    2. PV 保留策略是 Retain 时,删除 PVC 对象后对应的 PV 仍将保留。如果想要删除 PV,可以设置 PV 的保留策略为 Delete,PV 会被自动删除并回收。

      1. kubectl patch pv ${pv_name} -p '{"spec":{"persistentVolumeReclaimPolicy":"Delete"}}'

      其中 ${pv_name} 表示 TiFlash 集群 PV 的名称,可以执行以下命令查看:

      1. kubectl get pv -l app.kubernetes.io/component=tiflash,app.kubernetes.io/instance=${cluster_name}

不同版本配置注意事项

从 TiDB Operator v1.1.5 版本开始,spec.tiflash.config.config.flash.service_addr 的默认配置从 ${clusterName}-tiflash-POD_NUM.${clusterName}-tiflash-peer.${namespace}.svc:3930 修改为 0.0.0.0:3930,而 TiFlash 从 v4.0.5 开始需要配置 spec.tiflash.config.config.flash.service_addr0.0.0.0:3930,因此针对不同 TiFlash 和 TiDB Operator 版本,需要注意以下配置:

  • 如果 TiDB Operator 版本 <= v1.1.4
    • 如果 TiFlash 版本 <= v4.0.4,不需要手动配置 spec.tiflash.config.config.flash.service_addr
    • 如果 TiFlash 版本 >= v4.0.5,需要在 TidbCluster CR 中设置 spec.tiflash.config.config.flash.service_addr0.0.0.0:3930
  • 如果 TiDB Operator 版本 >= v1.1.5
    • 如果 TiFlash 版本 <= v4.0.4,需要在 TidbCluster CR 中设置 spec.tiflash.config.config.flash.service_addr${clusterName}-tiflash-POD_NUM.${clusterName}-tiflash-peer.${namespace}.svc:3930。其中,${clusterName}${namespace} 需要根据实际情况替换。
    • 如果 TiFlash 版本 >= v4.0.5,不需要手动配置 spec.tiflash.config.config.flash.service_addr
    • 如果从小于等于 v4.0.4 的 TiFlash 版本升级到大于等于 v4.0.5 TiFlash 版本,需要删除 TidbCluster CR 中 spec.tiflash.config.config.flash.service_addr 的配置。