本教程展示了如何在 Kubernetes 上开发一个云原生的 Cassandra deployment。在这个实例中,Cassandra 使用了一个自定义的 SeedProvider 来发现新加入集群的节点。

在集群环境中部署类似 Cassandra 的有状态(stateful)应用可能是具有挑战性的。StatefulSets 极大的简化了这个过程。请阅读 StatefulSets 获取更多关于此教程中使用的这个特性的信息。

Cassandra Docker

Pod 使用了来自 Google 容器注册表(container registry)gcr.io/google-samples/cassandra:v12 镜像。这个 docker 镜像基于 debian:jessie 并包含 OpenJDK 8。这个镜像包含了来自 Apache Debian 源的标准 Cassandra 安装。您可以通过环境变量来改变插入到 cassandra.yaml 中的值。

ENV VAR DEFAULT VALUE
CASSANDRA_CLUSTER_NAME ‘Test Cluster’
CASSANDRA_NUM_TOKENS 32
CASSANDRA_RPC_ADDRESS 0.0.0.0

Objectives

Before you begin

为了完成本教程,你应该对 PodService 和 StatefulSet 有基本的了解。此外,你还应该:

Minikube 附加安装说明

小心: Minikube 默认配置 1024MB 内存和 1 CPU,这在本例中将导致资源不足。

为了避免这些错误,请这样运行 minikube:

  1. minikube start --memory 5120 --cpus=4

创建 Cassandra Headless Service

Kubernetes Service 描述了一个执行相同任务的 Pod 集合。

下面的 Service 用于在集群内部的 Cassandra Pod 和客户端之间进行 DNS 查找。

  • 在下载清单文件的文件夹下启动一个终端窗口。
  • 使用 cassandra-service.yaml 文件创建一个 Service,用于追踪所有的 Cassandra StatefulSet 节点。
  1. kubectl create -f cassandra-service.yaml
cassandra/cassandra-service.yaml 示例:使用 Stateful Sets 部署 Cassandra - 图1
  1. apiVersion: v1
  2. kind: Service
  3. metadata:
  4. labels:
  5. app: cassandra
  6. name: cassandra
  7. spec:
  8. clusterIP: None
  9. ports:
  10. - port: 9042
  11. selector:
  12. app: cassandra

验证(可选)

获取 Cassandra Service。

  1. kubectl get svc cassandra

响应应该像这样:

  1. NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE
  2. cassandra None <none> 9042/TCP 45s

如果返回了任何其它消息,这个 service 就没有被成功创建。请查阅 调试 Services,了解常见问题。

使用 StatefulSet 创建 Cassandra 环

上文中的 StatefulSet 清单文件将创建一个由 3 个 pod 组成的 Cassandra 环。

注意: 本例中的 Minikube 使用默认 provisioner。请根据您使用的云服务商更新下面的 StatefulSet。

  • 如有必要请修改 StatefulSet。
  • 使用 cassandra-statefulset.yaml 文件创建 Cassandra StatefulSet。
  1. kubectl create -f cassandra-statefulset.yaml
cassandra/cassandra-statefulset.yaml 示例:使用 Stateful Sets 部署 Cassandra - 图2
  1. apiVersion: "apps/v1beta1"
  2. kind: StatefulSet
  3. metadata:
  4. name: cassandra
  5. spec:
  6. serviceName: cassandra
  7. replicas: 3
  8. template:
  9. metadata:
  10. labels:
  11. app: cassandra
  12. spec:
  13. containers:
  14. - name: cassandra
  15. image: gcr.io/google-samples/cassandra:v12
  16. imagePullPolicy: Always
  17. ports:
  18. - containerPort: 7000
  19. name: intra-node
  20. - containerPort: 7001
  21. name: tls-intra-node
  22. - containerPort: 7199
  23. name: jmx
  24. - containerPort: 9042
  25. name: cql
  26. resources:
  27. limits:
  28. cpu: "500m"
  29. memory: 1Gi
  30. requests:
  31. cpu: "500m"
  32. memory: 1Gi
  33. securityContext:
  34. capabilities:
  35. add:
  36. - IPC_LOCK
  37. lifecycle:
  38. preStop:
  39. exec:
  40. command: ["/bin/sh", "-c", "PID=$(pidof java) && kill $PID && while ps -p $PID > /dev/null; do sleep 1; done"]
  41. env:
  42. - name: MAX_HEAP_SIZE
  43. value: 512M
  44. - name: HEAP_NEWSIZE
  45. value: 100M
  46. - name: CASSANDRA_SEEDS
  47. value: "cassandra-0.cassandra.default.svc.cluster.local"
  48. - name: CASSANDRA_CLUSTER_NAME
  49. value: "K8Demo"
  50. - name: CASSANDRA_DC
  51. value: "DC1-K8Demo"
  52. - name: CASSANDRA_RACK
  53. value: "Rack1-K8Demo"
  54. - name: CASSANDRA_AUTO_BOOTSTRAP
  55. value: "false"
  56. - name: POD_IP
  57. valueFrom:
  58. fieldRef:
  59. fieldPath: status.podIP
  60. readinessProbe:
  61. exec:
  62. command:
  63. - /bin/bash
  64. - -c
  65. - /ready-probe.sh
  66. initialDelaySeconds: 15
  67. timeoutSeconds: 5
  68. # These volume mounts are persistent. They are like inline claims,
  69. # but not exactly because the names need to match exactly one of
  70. # the stateful pod volumes.
  71. volumeMounts:
  72. - name: cassandra-data
  73. mountPath: /cassandra_data
  74. # These are converted to volume claims by the controller
  75. # and mounted at the paths mentioned above.
  76. # do not use these in production until ssd GCEPersistentDisk or other ssd pd
  77. volumeClaimTemplates:
  78. - metadata:
  79. name: cassandra-data
  80. annotations:
  81. volume.beta.kubernetes.io/storage-class: fast
  82. spec:
  83. accessModes: [ "ReadWriteOnce" ]
  84. resources:
  85. requests:
  86. storage: 1Gi
  87. ---
  88. kind: StorageClass
  89. apiVersion: storage.k8s.io/v1beta1
  90. metadata:
  91. name: fast
  92. provisioner: k8s.io/minikube-hostpath
  93. parameters:
  94. type: pd-ssd

验证 Cassandra StatefulSet

  • 获取 Cassandra StatefulSet:
  1. kubectl get statefulset cassandra

响应应该是

  1. NAME DESIRED CURRENT AGE
  2. cassandra 3 0 13s

StatefulSet 资源顺序的部署 pod。

  • 获取 pod, 查看顺序创建的状态:
  1. kubectl get pods -l="app=cassandra"

响应应该像是

  1. NAME READY STATUS RESTARTS AGE
  2. cassandra-0 1/1 Running 0 1m
  3. cassandra-1 0/1 ContainerCreating 0 8s

注意: 部署全部三个 pod 可能需要 10 分钟时间。

一旦所有 pod 都已经部署,相同的命令将返回:

  1. NAME READY STATUS RESTARTS AGE
  2. cassandra-0 1/1 Running 0 10m
  3. cassandra-1 1/1 Running 0 9m
  4. cassandra-2 1/1 Running 0 8m
  • 运行 Cassandra nodetool 工具,显示环的状态。
  1. kubectl exec cassandra-0 -- nodetool status

响应为:

  1. Datacenter: DC1-K8Demo

Status=Up/Down
|/ State=Normal/Leaving/Joining/Moving
— Address Load Tokens Owns (effective) Host ID Rack
UN 172.17.0.5 83.57 KiB 32 74.0% e2dd09e6-d9d3-477e-96c5-45094c08db0f Rack1-K8Demo
UN 172.17.0.4 101.04 KiB 32 58.8% f89d6835-3a42-4419-92b3-0e62cae1479c Rack1-K8Demo
UN 172.17.0.6 84.74 KiB 32 67.1% a6a1e8c2-3dc5-4417-b1a0-26507af2aaad Rack1-K8Demo

修改 Cassandra StatefulSet

使用 kubectl edit修改 Cassandra StatefulSet 的大小。

  • 运行下面的命令:
  1. kubectl edit statefulset cassandra

这个命令将在终端中打开一个编辑器。您需要修改 replicas 字段一行。

注意: 以下示例是 StatefulSet 文件的摘录。

  1. # Please edit the object below. Lines beginning with a '#' will be ignored,
  2. # and an empty file will abort the edit. If an error occurs while saving this file will be
  3. # reopened with the relevant failures.
  4. #
  5. apiVersion: apps/v1beta1
  6. kind: StatefulSet
  7. metadata:
  8. creationTimestamp: 2016-08-13T18:40:58Z
  9. generation: 1
  10. labels:
  11. app: cassandra
  12. name: cassandra
  13. namespace: default
  14. resourceVersion: "323"
  15. selfLink: /apis/apps/v1beta1/namespaces/default/statefulsets/cassandra
  16. uid: 7a219483-6185-11e6-a910-42010a8a0fc0
  17. spec:
  18. replicas: 3
  • 修改副本数量为 4 并保存清单文件。
    这个 StatefulSet 现在包含 4 个 pod。

  • 获取 Cassandra StatefulSet 来进行验证:

  1. kubectl get statefulset cassandra

响应应该为:

  1. NAME DESIRED CURRENT AGE
  2. cassandra 4 4 36m

Cleaning up

删除或缩容 StatefulSet 不会删除与其相关联的 volume。这优先保证了安全性:您的数据比其它所有自动清理的 StatefulSet 资源都更宝贵。

警告: 取决于 storage class 和回收策略(reclaim policy),删除 Persistent Volume Claims 可能导致关联的 volume 也被删除。绝对不要假设在 volume claim 被删除后还能访问数据。

  • 运行下面的命令,删除 StatefulSet 中所有能内容:
  1. grace=$(kubectl get po cassandra-0 -o=jsonpath='{.spec.terminationGracePeriodSeconds}') \
  2. && kubectl delete statefulset -l app=cassandra \
  3. && echo "Sleeping $grace" \
  4. && sleep $grace \
  5. && kubectl delete pvc -l app=cassandra
  • 运行下面的命令,删除 Cassandra Service。
  1. kubectl delete service -l app=cassandra

本文由xiaosuiba翻译,点击查看原文链接

K8S中文社区微信公众号

原文: http://docs.kubernetes.org.cn/736.html