启用 TidbCluster 弹性伸缩

在 Kubernetes 平台上,有着基于 CPU 利用率进行负载的原生 API: Horizontal Pod Autoscaler。与之相应的,在 Operator 1.1 版本及以上,TiDB 集群可以凭借 Kubernetes 平台本身的特性来开启弹性调度的能力。本篇文章将会介绍如何开启并使用 TidbCluster 的弹性伸缩能力。

开启弹性伸缩特性

警告:

  • TidbCluster 弹性伸缩目前仍处于 Alpha 阶段,我们极其不推荐在关键、生产环境开启这个特性
  • 我们推荐你在测试、内网环境对这个特性进行体验,并反馈相关的建议与问题给我们,帮助我们更好地提高这一特性能力。

开启弹性伸缩特性需要主动开启 Operator 相关配置,默认情况下 Operator 的弹性伸缩特性是关闭的。你可以通过以下方式来开启弹性调度特性:

  1. 修改 Operator 的 values.yaml

    features 选项中开启 AutoScaling:

    1. features:
    2. - AutoScaling=true

    开启 Operator Webhook 特性:

    1. admissionWebhook:
    2. create: true
    3. mutation:
    4. pods: true

    关于 Operator Webhook,请参考开启 TiDB Operator 准入控制器

  2. 安装/更新 TiDB Operator

    修改完 values.yaml 文件中上述配置项以后进行 TiDB Operator 部署或者更新。安装与更新 Operator 请参考在 Kubernetes 上部署 TiDB Operator

  3. 确认目标 TiDB 集群资源设置

    目标 TiDB 集群在使用弹性伸缩前,首先需要设置好对应组件的 CPU 设置。以 TiKV 为例,你需要申明 spec.tikv.requests.cpu

    1. spec:
    2. tikv:
    3. requests:
    4. cpu: "1"
    5. tidb:
    6. requests:
    7. cpu: "1"

了解 TidbClusterAutoScaler

我们通过 TidbClusterAutoScaler CR 对象来控制 TiDB 集群的弹性伸缩行为,如果你曾经使用过 Horizontal Pod Autoscaler,那么你一定会对这个概念感到非常熟悉。以下是一个 TiKV 的弹性伸缩例子。

  1. apiVersion: pingcap.com/v1alpha1
  2. kind: TidbClusterAutoScaler
  3. metadata:
  4. name: auto-scaling-demo
  5. spec:
  6. cluster:
  7. name: auto-scaling-demo
  8. namespace: default
  9. monitor:
  10. name: auto-scaling-demo
  11. namespace: default
  12. tikv:
  13. minReplicas: 3
  14. maxReplicas: 4
  15. metrics:
  16. - type: "Resource"
  17. resource:
  18. name: "cpu"
  19. target:
  20. type: "Utilization"
  21. averageUtilization: 80

对于 TiDB 组件,你可以通过 spec.tidb 来进行配置,目前 TiKV 与 TiDB 的弹性伸缩 API 相同。

TidbClusterAutoScaler 对象中,cluster 属性代表了需要被弹性调度的 TiDB 集群,通过 name 与 namespace 来标识。由于 TidbClusterAutoScaler 组件需要通过指标采集组件抓取相关资源使用情况,我们需要提供对应的指标采集与查询服务给 TidbClusterAutoScalermonitor 属性则代表了与之相关连的 TidbMonitor 对象。如果你不了解 TidbMonitor,可以参考通过 TidbMonitor 监控 TiDB 集群

对于非 TidbMonitor 的外部 Prometheus, 你可以通过 spec.metricsUrl 来填写这个服务的 Host,从而指定该 TiDB 集群的监控指标采集服务。对于使用 Helm 部署 TiDB 集群监控的情况,可以通过以下方式来指定 spec.metricsUrl

  1. apiVersion: pingcap.com/v1alpha1
  2. kind: TidbClusterAutoScaler
  3. metadata:
  4. name: auto-scaling-demo
  5. spec:
  6. cluster:
  7. name: auto-scaling-demo
  8. namespace: default
  9. metricsUrl: "http://${release_name}-prometheus.${namespace}.svc:9090"
  10. ......

快速上手

我们将通过以下指令快速部署一个 3 PD、3 TiKV、2 TiDB,并带有监控与弹性伸缩能力的 TiDB 集群。

  1. $ kubectl apply -f https://raw.githubusercontent.com/pingcap/tidb-operator/master/examples/auto-scale/tidb-cluster.yaml -n ${namespace}
  2. tidbcluster.pingcap.com/auto-scaling-demo created
  3. $ kubectl apply -f https://raw.githubusercontent.com/pingcap/tidb-operator/master/examples/auto-scale/tidb-monitor.yaml -n ${namespace}
  4. tidbmonitor.pingcap.com/auto-scaling-demo created
  5. $ kubectl apply -f https://raw.githubusercontent.com/pingcap/tidb-operator/master/examples/auto-scale/tidb-cluster-auto-scaler.yaml -n ${namespace}
  6. tidbclusterautoscaler.pingcap.com/auto-scaling-demo created

当 TiDB 集群创建完毕以后,你可以通过 sysbench 等数据库压测工具进行压测来体验弹性伸缩功能。

使用如下命令销毁环境:

  1. kubectl delete tidbcluster auto-scaling-demo -n ${namespace}
  2. kubectl delete tidbmonitor auto-scaling-demo -n ${namespace}
  3. kubectl delete tidbclusterautoscaler auto-scaling-demo -n ${namespace}

配置 TidbClusterAutoScaler

  1. 设置弹性伸缩间隔

    相比无状态的 Web 服务,一个分布式数据库软件对于实例的伸缩往往是非常敏感的。我们需要保证每次弹性伸缩之间存在一定的间隔,从而避免引起频繁的弹性伸缩。 你可以通过 spec.tikv.scaleInIntervalSecondsspec.tikv.ScaleOutIntervalSeconds 来配置每两次弹性伸缩之间的时间间隔(秒),对于 TiDB 也同样如此。

    1. apiVersion: pingcap.com/v1alpha1
    2. kind: TidbClusterAutoScaler
    3. metadata:
    4. name: auto-sclaer
    5. spec:
    6. tidb:
    7. scaleInIntervalSeconds: 500
    8. ScaleOutIntervalSeconds: 300
    9. tikv:
    10. scaleInIntervalSeconds: 500
    11. ScaleOutIntervalSeconds: 300
  2. 设置最大最小值

    就像 Horizontal Pod Autoscaler,在 TidbClusterAutoScaler 中你也可以设置给每个组件最大最小值来控制 TiDBTiKV 的伸缩范围。

    1. apiVersion: pingcap.com/v1alpha1
    2. kind: TidbClusterAutoScaler
    3. metadata:
    4. name: auto-scaling-demo
    5. spec:
    6. tikv:
    7. minReplicas: 3
    8. maxReplicas: 4
    9. tidb:
    10. minReplicas: 2
    11. maxReplicas: 3
  3. 配置 CPU 弹性伸缩

    目前 TidbClusterAutoScaler 仅支持基于 CPU 负载的弹性伸缩,CPU 负载的描述性 API 如下所示。averageUtilization 则代表了 CPU 负载利用率的阈值。如果当前 CPU 利用率超过 80%,则会触发弹性扩容。

    1. apiVersion: pingcap.com/v1alpha1
    2. kind: TidbClusterAutoScaler
    3. metadata:
    4. name: auto-scaling-demo
    5. spec:
    6. tikv:
    7. minReplicas: 3
    8. maxReplicas: 4
    9. metrics:
    10. - type: "Resource"
    11. resource:
    12. name: "cpu"
    13. target:
    14. type: "Utilization"
    15. averageUtilization: 80
  4. 配置指标时间窗口

    目前基于 CPU 负载的弹性调度,TidbClusterAutoScaler 会在所指定的监控系统中获取 TiDBTiKV 的 CPU 指标,你可以指定采集指标的时间窗口。

    1. apiVersion: pingcap.com/v1alpha1
    2. kind: TidbClusterAutoScaler
    3. metadata:
    4. name: basic
    5. tidb:
    6. metricsTimeDuration: "1m"
    7. metrics:
    8. - type: "Resource"
    9. resource:
    10. name: "cpu"
    11. target:
    12. type: "Utilization"
    13. averageUtilization: 60