06-2.部署高可用 kube-apiserver 集群

本文档讲解部署一个三实例 kube-apiserver 集群的步骤。

注意:如果没有特殊指明,本文档的所有操作均在 m7-autocv-gpu01 节点上执行,然后远程分发文件和执行命令。

准备工作

下载最新版本的二进制文件、安装和配置 flanneld 参考:06-1.部署master节点.md

创建 kubernetes 证书和私钥

创建证书签名请求:

  1. cd /opt/k8s/work
  2. source /opt/k8s/bin/environment.sh
  3. cat > kubernetes-csr.json <<EOF
  4. {
  5. "CN": "kubernetes",
  6. "hosts": [
  7. "127.0.0.1",
  8. "172.27.128.150",
  9. "172.27.128.149",
  10. "172.27.128.148",
  11. "${CLUSTER_KUBERNETES_SVC_IP}",
  12. "kubernetes",
  13. "kubernetes.default",
  14. "kubernetes.default.svc",
  15. "kubernetes.default.svc.cluster",
  16. "kubernetes.default.svc.cluster.local"
  17. ],
  18. "key": {
  19. "algo": "rsa",
  20. "size": 2048
  21. },
  22. "names": [
  23. {
  24. "C": "CN",
  25. "ST": "BeiJing",
  26. "L": "BeiJing",
  27. "O": "k8s",
  28. "OU": "4Paradigm"
  29. }
  30. ]
  31. }
  32. EOF
  • hosts 字段指定授权使用该证书的 IP 或域名列表,这里列出了 VIP 、apiserver 节点 IP、kubernetes 服务 IP 和域名;
  • 域名最后字符不能是 .(如不能为 kubernetes.default.svc.cluster.local.),否则解析时失败,提示: x509: cannot parse dnsName "kubernetes.default.svc.cluster.local."
  • 如果使用非 cluster.local 域名,如 opsnull.com,则需要修改域名列表中的最后两个域名为:kubernetes.default.svc.opsnullkubernetes.default.svc.opsnull.com
  • kubernetes 服务 IP 是 apiserver 自动创建的,一般是 --service-cluster-ip-range 参数指定的网段的第一个IP,后续可以通过如下命令获取:

    1. $ kubectl get svc kubernetes
    2. NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE
    3. kubernetes 10.254.0.1 <none> 443/TCP 1d

生成证书和私钥:

  1. cfssl gencert -ca=/opt/k8s/work/ca.pem \
  2. -ca-key=/opt/k8s/work/ca-key.pem \
  3. -config=/opt/k8s/work/ca-config.json \
  4. -profile=kubernetes kubernetes-csr.json | cfssljson -bare kubernetes
  5. ls kubernetes*pem

将生成的证书和私钥文件拷贝到 master 节点:

  1. cd /opt/k8s/work
  2. source /opt/k8s/bin/environment.sh
  3. for node_ip in ${NODE_IPS[@]}
  4. do
  5. echo ">>> ${node_ip}"
  6. ssh root@${node_ip} "mkdir -p /etc/kubernetes/cert"
  7. scp kubernetes*.pem root@${node_ip}:/etc/kubernetes/cert/
  8. done

创建加密配置文件

  1. cd /opt/k8s/work
  2. source /opt/k8s/bin/environment.sh
  3. cat > encryption-config.yaml <<EOF
  4. kind: EncryptionConfig
  5. apiVersion: v1
  6. resources:
  7. - resources:
  8. - secrets
  9. providers:
  10. - aescbc:
  11. keys:
  12. - name: key1
  13. secret: ${ENCRYPTION_KEY}
  14. - identity: {}
  15. EOF

将加密配置文件拷贝到 master 节点的 /etc/kubernetes 目录下:

  1. cd /opt/k8s/work
  2. source /opt/k8s/bin/environment.sh
  3. for node_ip in ${NODE_IPS[@]}
  4. do
  5. echo ">>> ${node_ip}"
  6. scp encryption-config.yaml root@${node_ip}:/etc/kubernetes/
  7. done

替换后的 encryption-config.yaml 文件:encryption-config.yaml

创建 kube-apiserver systemd unit 模板文件

  1. cd /opt/k8s/work
  2. source /opt/k8s/bin/environment.sh
  3. cat > kube-apiserver.service.template <<EOF
  4. [Unit]
  5. Description=Kubernetes API Server
  6. Documentation=https://github.com/GoogleCloudPlatform/kubernetes
  7. After=network.target
  8. [Service]
  9. WorkingDirectory=${K8S_DIR}/kube-apiserver
  10. ExecStart=/opt/k8s/bin/kube-apiserver \\
  11. --enable-admission-plugins=Initializers,NamespaceLifecycle,NodeRestriction,LimitRanger,ServiceAccount,DefaultStorageClass,ResourceQuota \\
  12. --anonymous-auth=false \\
  13. --experimental-encryption-provider-config=/etc/kubernetes/encryption-config.yaml \\
  14. --advertise-address=##NODE_IP## \\
  15. --bind-address=##NODE_IP## \\
  16. --insecure-port=0 \\
  17. --authorization-mode=Node,RBAC \\
  18. --runtime-config=api/all \\
  19. --enable-bootstrap-token-auth \\
  20. --service-cluster-ip-range=${SERVICE_CIDR} \\
  21. --service-node-port-range=${NODE_PORT_RANGE} \\
  22. --tls-cert-file=/etc/kubernetes/cert/kubernetes.pem \\
  23. --tls-private-key-file=/etc/kubernetes/cert/kubernetes-key.pem \\
  24. --client-ca-file=/etc/kubernetes/cert/ca.pem \\
  25. --kubelet-certificate-authority=/etc/kubernetes/cert/ca.pem \\
  26. --kubelet-client-certificate=/etc/kubernetes/cert/kubernetes.pem \\
  27. --kubelet-client-key=/etc/kubernetes/cert/kubernetes-key.pem \\
  28. --kubelet-https=true \\
  29. --service-account-key-file=/etc/kubernetes/cert/ca.pem \\
  30. --etcd-cafile=/etc/kubernetes/cert/ca.pem \\
  31. --etcd-certfile=/etc/kubernetes/cert/kubernetes.pem \\
  32. --etcd-keyfile=/etc/kubernetes/cert/kubernetes-key.pem \\
  33. --etcd-servers=${ETCD_ENDPOINTS} \\
  34. --enable-swagger-ui=true \\
  35. --allow-privileged=true \\
  36. --max-mutating-requests-inflight=2000 \\
  37. --max-requests-inflight=4000 \\
  38. --apiserver-count=3 \\
  39. --audit-log-maxage=30 \\
  40. --audit-log-maxbackup=3 \\
  41. --audit-log-maxsize=100 \\
  42. --audit-log-path=${K8S_DIR}/kube-apiserver/audit.log \\
  43. --event-ttl=168h \\
  44. --logtostderr=true \\
  45. --v=2
  46. Restart=on-failure
  47. RestartSec=5
  48. Type=notify
  49. LimitNOFILE=65536
  50. [Install]
  51. WantedBy=multi-user.target
  52. EOF
  • --experimental-encryption-provider-config:启用加密特性;
  • --authorization-mode=Node,RBAC: 开启 Node 和 RBAC 授权模式,拒绝未授权的请求;
  • --enable-admission-plugins:启用 ServiceAccountNodeRestriction
  • --service-account-key-file:签名 ServiceAccount Token 的公钥文件,kube-controller-manager 的 --service-account-private-key-file 指定私钥文件,两者配对使用;
  • --tls-*-file:指定 apiserver 使用的证书、私钥和 CA 文件。--client-ca-file 用于验证 client (kue-controller-manager、kube-scheduler、kubelet、kube-proxy 等)请求所带的证书;
  • --kubelet-client-certificate--kubelet-client-key:如果指定,则使用 https 访问 kubelet APIs;需要为证书对应的用户(上面 kubernetes*.pem 证书的用户为 kubernetes) 用户定义 RBAC 规则,否则访问 kubelet API 时提示未授权;
  • --bind-address: 不能为 127.0.0.1,否则外界不能访问它的安全端口 6443;
  • --insecure-port=0:关闭监听非安全端口(8080);
  • --service-cluster-ip-range: 指定 Service Cluster IP 地址段;
  • --service-node-port-range: 指定 NodePort 的端口范围;
  • --runtime-config=api/all=true: 启用所有版本的 APIs,如 autoscaling/v2alpha1;
  • --enable-bootstrap-token-auth:启用 kubelet bootstrap 的 token 认证;
  • --apiserver-count=3:指定集群运行模式,多台 kube-apiserver 会通过 leader 选举产生一个工作节点,其它节点处于阻塞状态;

为各节点创建和分发 kube-apiserver systemd unit 文件

替换模板文件中的变量,为各节点创建 systemd unit 文件:

  1. cd /opt/k8s/work
  2. source /opt/k8s/bin/environment.sh
  3. for (( i=0; i < 3; i++ ))
  4. do
  5. sed -e "s/##NODE_NAME##/${NODE_NAMES[i]}/" -e "s/##NODE_IP##/${NODE_IPS[i]}/" kube-apiserver.service.template > kube-apiserver-${NODE_IPS[i]}.service
  6. done
  7. ls kube-apiserver*.service
  • NODE_NAMES 和 NODE_IPS 为相同长度的 bash 数组,分别为节点名称和对应的 IP;

分发生成的 systemd unit 文件:

  1. cd /opt/k8s/work
  2. source /opt/k8s/bin/environment.sh
  3. for node_ip in ${NODE_IPS[@]}
  4. do
  5. echo ">>> ${node_ip}"
  6. scp kube-apiserver-${node_ip}.service root@${node_ip}:/etc/systemd/system/kube-apiserver.service
  7. done
  • 文件重命名为 kube-apiserver.service;

替换后的 unit 文件:kube-apiserver.service

启动 kube-apiserver 服务

  1. source /opt/k8s/bin/environment.sh
  2. for node_ip in ${NODE_IPS[@]}
  3. do
  4. echo ">>> ${node_ip}"
  5. ssh root@${node_ip} "mkdir -p ${K8S_DIR}/kube-apiserver"
  6. ssh root@${node_ip} "systemctl daemon-reload && systemctl enable kube-apiserver && systemctl restart kube-apiserver"
  7. done
  • 必须创建工作目录;

检查 kube-apiserver 运行状态

  1. source /opt/k8s/bin/environment.sh
  2. for node_ip in ${NODE_IPS[@]}
  3. do
  4. echo ">>> ${node_ip}"
  5. ssh root@${node_ip} "systemctl status kube-apiserver |grep 'Active:'"
  6. done

确保状态为 active (running),否则到 master 节点查看日志,确认原因:

  1. $ journalctl -u kube-apiserver

打印 kube-apiserver 写入 etcd 的数据

  1. source /opt/k8s/bin/environment.sh
  2. ETCDCTL_API=3 etcdctl \
  3. --endpoints=${ETCD_ENDPOINTS} \
  4. --cacert=/opt/k8s/work/ca.pem \
  5. --cert=/opt/k8s/work/etcd.pem \
  6. --key=/opt/k8s/work/etcd-key.pem \
  7. get /registry/ --prefix --keys-only

检查集群信息

  1. $ kubectl cluster-info
  2. Kubernetes master is running at https://127.0.0.1:8443
  3. To further debug and diagnose cluster problems, use 'kubectl cluster-info dump'.
  4. $ kubectl get all --all-namespaces
  5. NAMESPACE NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
  6. default service/kubernetes ClusterIP 10.254.0.1 <none> 443/TCP 4m27s
  7. $ kubectl get componentstatuses
  8. NAME STATUS MESSAGE ERROR
  9. controller-manager Unhealthy Get http://127.0.0.1:10252/healthz: dial tcp 127.0.0.1:10252: connect: connection refused
  10. scheduler Unhealthy Get http://127.0.0.1:10251/healthz: dial tcp 127.0.0.1:10251: connect: connection refused
  11. etcd-2 Healthy {"health":"true"}
  12. etcd-0 Healthy {"health":"true"}
  13. etcd-1 Healthy {"health":"true"}

注意:

  1. 如果执行 kubectl 命令式时输出如下错误信息,则说明使用的 ~/.kube/config 文件不对,请切换到正确的账户后再执行该命令:

    The connection to the server localhost:8080 was refused - did you specify the right host or port?

  2. 执行 kubectl get componentstatuses 命令时,apiserver 默认向 127.0.0.1 发送请求。当 controller-manager、scheduler 以集群模式运行时,有可能和 kube-apiserver 不在一台机器上,这时 controller-manager 或 scheduler 的状态为 Unhealthy,但实际上它们工作正常

检查 kube-apiserver 监听的端口

  1. $ sudo netstat -lnpt|grep kube
  2. tcp 0 0 172.27.128.150:6443 0.0.0.0:* LISTEN 51903/kube-apiserve
  • 6443: 接收 https 请求的安全端口,对所有请求做认证和授权;
  • 由于关闭了非安全端口,故没有监听 8080;

授予 kubernetes 证书访问 kubelet API 的权限

在执行 kubectl exec、run、logs 等命令时,apiserver 会转发到 kubelet。这里定义 RBAC 规则,授权 apiserver 调用 kubelet API。

这里需要特别注意,为了方便管理集群,因此需要通过 kubectl logs 来查看,但由于 API 权限问题,故需要建立一个 RBAC Role 来获取访问权限,否则,这个不授权,kubectl 会无权访问pod 的log内容 报错:

  1. # kubectl logs coredns-6fcd79879-q425r -n kube-system
  2. Error from server (Forbidden): Forbidden (user=kubernetes, verb=get, resource=nodes, subresource=proxy) ( pods/log coredns-6fcd79879-q425r)
  1. $ kubectl create clusterrolebinding kube-apiserver:kubelet-apis --clusterrole=system:kubelet-api-admin --user kubernetes

参考

  1. 关于证书域名最后字符不能是 . 的问题,实际和 Go 的版本有关,1.9 不支持这种类型的证书:https://github.com/kubernetes/ingress-nginx/issues/2188