Kubernetes 云管理控制器

特性状态: Kubernetes v1.11 [beta]

由于云驱动的开发和发布的步调与 Kubernetes 项目不同,将服务提供商专用代码抽象到 [cloud-controller-manager]($de5397af4ed17436.md "将 Kubernetes 与第三方云提供商进行集成的控制面组件。") 二进制中有助于云服务厂商在 Kubernetes 核心代码之外独立进行开发。

cloud-controller-manager 可以被链接到任何满足 cloudprovider.Interface 约束的云服务提供商。为了兼容旧版本,Kubernetes 核心项目中提供的 cloud-controller-manager 使用和 kube-controller-manager 相同的云服务类库。 已经在 Kubernetes 核心项目中支持的云服务提供商预计将通过使用 in-tree 的 cloud-controller-manager 过渡为非 Kubernetes 核心代码。

管理

需求

每个云服务都有一套各自的需求用于系统平台的集成,这不应与运行 kube-controller-manager 的需求有太大差异。作为经验法则,你需要:

  • 云服务认证/授权:你的云服务可能需要使用令牌或者 IAM 规则以允许对其 API 的访问
  • kubernetes 认证/授权:cloud-controller-manager 可能需要 RBAC 规则以访问 kubernetes apiserver
  • 高可用:类似于 kube-controller-manager,你可能希望通过主节点选举(默认开启)配置一个高可用的云管理控制器。

运行云管理控制器

你需要对集群配置做适当的修改以成功地运行云管理控制器:

  • 一定不要为 kube-apiserverkube-controller-manager 指定 --cloud-provider 标志。 这将保证它们不会运行任何云服务专用循环逻辑,这将会由云管理控制器运行。未来这个标记将被废弃并去除。
  • kubelet 必须使用 --cloud-provider=external 运行。 这是为了保证让 kubelet 知道在执行任何任务前,它必须被云管理控制器初始化。

请记住,设置集群使用云管理控制器将用多种方式更改集群行为:

  • 指定了 --cloud-provider=external 的 kubelet 将被添加一个 node.cloudprovider.kubernetes.io/uninitialized 的污点,导致其在初始化过程中不可调度(NoSchedule)。 这将标记该节点在能够正常调度前,需要外部的控制器进行二次初始化。 请注意,如果云管理控制器不可用,集群中的新节点会一直处于不可调度的状态。 这个污点很重要,因为调度器可能需要关于节点的云服务特定的信息,比如他们的区域或类型 (高端 CPU、GPU 支持、内存较大、临时实例等)。

  • 集群中节点的云服务信息将不再能够从本地元数据中获取,取而代之的是所有获取节点信息的 API 调用都将通过云管理控制器。这意味着你可以通过限制到 kubelet 云服务 API 的访问来提升安全性。 在更大的集群中你可能需要考虑云管理控制器是否会遇到速率限制, 因为它现在负责集群中几乎所有到云服务的 API 调用。

云管理控制器可以实现:

  • 节点控制器 - 负责使用云服务 API 更新 kubernetes 节点并删除在云服务上已经删除的 kubernetes 节点。
  • 服务控制器 - 负责在云服务上为类型为 LoadBalancer 的 service 提供负载均衡器。
  • 路由控制器 - 负责在云服务上配置网络路由。
  • 如果你使用的是 out-of-tree 提供商,请按需实现其余任意特性。

示例

如果当前 Kubernetes 内核支持你使用的云服务,并且想要采用云管理控制器,请参见 kubernetes 内核中的云管理控制器

对于不在 Kubernetes 核心代码库中的云管理控制器,你可以在云服务厂商或 SIG 领导者的源中找到对应的项目。

对于已经存在于 Kubernetes 内核中的提供商,你可以在集群中将 in-tree 云管理控制器作为守护进程运行。请使用如下指南:

admin/cloud/ccm-example.yaml

  1. # 这是一个如何将 cloud-controller-manager 安装为集群中的 Daemonset 的示例。
  2. # 本例假定你的主控节点可以运行 pod 并具有角色 node-role.kubernetes.io/master
  3. # 请注意,这里的 Daemonset 不能直接在你的云上工作,此例只是一个指导。
  4. ---
  5. apiVersion: v1
  6. kind: ServiceAccount
  7. metadata:
  8. name: cloud-controller-manager
  9. namespace: kube-system
  10. ---
  11. apiVersion: rbac.authorization.k8s.io/v1
  12. kind: ClusterRoleBinding
  13. metadata:
  14. name: system:cloud-controller-manager
  15. roleRef:
  16. apiGroup: rbac.authorization.k8s.io
  17. kind: ClusterRole
  18. name: cluster-admin
  19. subjects:
  20. - kind: ServiceAccount
  21. name: cloud-controller-manager
  22. namespace: kube-system
  23. ---
  24. apiVersion: apps/v1
  25. kind: DaemonSet
  26. metadata:
  27. labels:
  28. k8s-app: cloud-controller-manager
  29. name: cloud-controller-manager
  30. namespace: kube-system
  31. spec:
  32. selector:
  33. matchLabels:
  34. k8s-app: cloud-controller-manager
  35. template:
  36. metadata:
  37. labels:
  38. k8s-app: cloud-controller-manager
  39. spec:
  40. serviceAccountName: cloud-controller-manager
  41. containers:
  42. - name: cloud-controller-manager
  43. # 对于树内驱动,我们使用 k8s.gcr.io/cloud-controller-manager,
  44. # 镜像可以替换为其他树外驱动的镜像
  45. image: k8s.gcr.io/cloud-controller-manager:v1.8.0
  46. command:
  47. - /usr/local/bin/cloud-controller-manager
  48. - --cloud-provider=[YOUR_CLOUD_PROVIDER] # 在此处添加你自己的云驱动!
  49. - --leader-elect=true
  50. - --use-service-account-credentials
  51. # 这些标志因每个云驱动而异
  52. - --allocate-node-cidrs=true
  53. - --configure-cloud-routes=true
  54. - --cluster-cidr=172.17.0.0/16
  55. tolerations:
  56. # 这一设置是必需的,为了让 CCM 可以自行引导
  57. - key: node.cloudprovider.kubernetes.io/uninitialized
  58. value: "true"
  59. effect: NoSchedule
  60. # 这些容忍度使得守护进程能够在控制平面节点上运行
  61. # 如果你的控制平面节点不应该运行 pod,请删除它们
  62. - key: node-role.kubernetes.io/control-plane
  63. operator: Exists
  64. effect: NoSchedule
  65. - key: node-role.kubernetes.io/master
  66. operator: Exists
  67. effect: NoSchedule
  68. # 这是为了限制 CCM 仅在主节点上运行
  69. # 节点选择器可能因你的集群设置而异
  70. nodeSelector:
  71. node-role.kubernetes.io/master: ""

限制

运行云管理控制器会有一些可能的限制。虽然以后的版本将处理这些限制,但是知道这些生产负载的限制很重要。

对 Volume 的支持

云管理控制器未实现 kube-controller-manager 中的任何 volume 控制器,因为和 volume 的集成还需要与 kubelet 协作。由于我们引入了 CSI (容器存储接口,container storage interface) 并对弹性 volume 插件添加了更强大的支持,云管理控制器将添加必要的支持,以使云服务同 volume 更好的集成。请在 这里 了解更多关于 out-of-tree CSI volume 插件的信息。

可扩展性

在以前为云服务提供商提供的架构中,我们依赖 kubelet 的本地元数据服务来获取关于它本身的节点信息。通过这个新的架构,现在我们完全依赖云管理控制器来获取所有节点的信息。对于非常大的集群,你需要考虑可能的瓶颈,例如资源需求和 API 速率限制。

鸡和蛋的问题

云管理控制器的目标是将云服务特性的开发从 Kubernetes 核心项目中解耦。 不幸的是,Kubernetes 项目的许多方面都假设云服务提供商的特性同项目紧密结合。 因此,这种新架构的采用可能导致某些场景下,当一个请求需要从云服务提供商获取信息时, 在该请求没有完成的情况下云管理控制器不能返回那些信息。

Kubelet 中的 TLS 引导特性是一个很好的例子。 目前,TLS 引导认为 kubelet 有能力从云提供商(或本地元数据服务)获取所有的地址类型(私有、公用等), 但在被初始化之前,云管理控制器不能设置节点地址类型,而这需要 kubelet 拥有 TLS 证书以和 API 服务器通信。

随着整个动议的演进,将来的发行版中将作出改变来解决这些问题。

接下来

要构建和开发你自己的云管理控制器,请阅读 开发云管理控制器 文档。

最后修改 June 23, 2022 at 8:02 PM PST: [zh]Update tasks pages(part-3) for links with ‘/zh/‘ prefix, using new prefix ‘/zh-cn/‘ (6a67fb8880)