网络

本文列出的命令/步骤可用于检查集群中的网络问题。

请确保你配置了正确的 kubeconfig(例如,为 Rancher HA 配置了 export KUBECONFIG=$PWD/kube_config_cluster.yml)或通过 UI 使用了嵌入式 kubectl。

仔细检查你的(主机)防火墙中是否打开了所有必需的端口

仔细检查你的(主机)防火墙中是否打开了所有必需的端口。其他所需的端口都使用 TCP,而覆盖网络使用 UDP。

检查覆盖网络是否正常运行

你可以将 Pod 调度到集群中的任何主机,但是 NGINX Ingress Controller 需要能够将 NODE_1 请求路由到 NODE_2。这会在覆盖网络上进行。如果覆盖网络无法正常工作,由于 NGINX Ingress Controller 无法路由到 pod,因此 TCP/HTTP 连接会间歇性失败。

要测试覆盖网络,你可以启动以下 DaemonSet 定义。这样,每台主机上都会运行一个 swiss-army-knife 容器(镜像由 Rancher 工程师开发,可在此处找到),我们使用该镜像在所有主机上的容器之间运行 ping 测试。

网络 - 图1备注

此容器不支持 ARM 节点(例如 Raspberry Pi)。Pod 日志会显示为 exec user process caused: exec format error

  1. 将以下内容另存为 overlaytest.yml

    1. apiVersion: apps/v1
    2. kind: DaemonSet
    3. metadata:
    4. name: overlaytest
    5. spec:
    6. selector:
    7. matchLabels:
    8. name: overlaytest
    9. template:
    10. metadata:
    11. labels:
    12. name: overlaytest
    13. spec:
    14. tolerations:
    15. - operator: Exists
    16. containers:
    17. - image: rancherlabs/swiss-army-knife
    18. imagePullPolicy: Always
    19. name: overlaytest
    20. command: ["sh", "-c", "tail -f /dev/null"]
    21. terminationMessagePath: /dev/termination-log
  2. 使用 kubectl create -f overlaytest.yml 启动它。

  3. 等待 kubectl rollout status ds/overlaytest -w 返回 daemon set "overlaytest" successfully rolled out

  4. 从同一位置运行以下脚本。它会让每个主机上的所有 overlaytest 容器相互 ping 通:

    1. #!/bin/bash
    2. echo "=> Start network overlay test"
    3. kubectl get pods -l name=overlaytest -o jsonpath='{range .items[*]}{@.metadata.name}{" "}{@.spec.nodeName}{"\n"}{end}' |
    4. while read spod shost
    5. do kubectl get pods -l name=overlaytest -o jsonpath='{range .items[*]}{@.status.podIP}{" "}{@.spec.nodeName}{"\n"}{end}' |
    6. while read tip thost
    7. do kubectl --request-timeout='10s' exec $spod -c overlaytest -- /bin/sh -c "ping -c2 $tip > /dev/null 2>&1"
    8. RC=$?
    9. if [ $RC -ne 0 ]
    10. then echo FAIL: $spod on $shost cannot reach pod IP $tip on $thost
    11. else echo $shost can reach $thost
    12. fi
    13. done
    14. done
    15. echo "=> End network overlay test"
  5. 命令运行完成后,它会输出每条路由的状态:

    1. => Start network overlay test
    2. Error from server (NotFound): pods "wk2" not found
    3. FAIL: overlaytest-5bglp on wk2 cannot reach pod IP 10.42.7.3 on wk2
    4. Error from server (NotFound): pods "wk2" not found
    5. FAIL: overlaytest-5bglp on wk2 cannot reach pod IP 10.42.0.5 on cp1
    6. Error from server (NotFound): pods "wk2" not found
    7. FAIL: overlaytest-5bglp on wk2 cannot reach pod IP 10.42.2.12 on wk1
    8. command terminated with exit code 1
    9. FAIL: overlaytest-v4qkl on cp1 cannot reach pod IP 10.42.7.3 on wk2
    10. cp1 can reach cp1
    11. cp1 can reach wk1
    12. command terminated with exit code 1
    13. FAIL: overlaytest-xpxwp on wk1 cannot reach pod IP 10.42.7.3 on wk2
    14. wk1 can reach cp1
    15. wk1 can reach wk1
    16. => End network overlay test

    如果你在输出中看到错误,则说明两台主机上的 Pod 路由存在问题。在上面的输出中,节点 wk2 在覆盖网络上没有连接。原因可能是没有为 wk2 打开覆盖网络的必需端口

  6. 你现在可以通过运行 kubectl delete ds/overlaytest 来清理 DaemonSet。

检查主机和对等/隧道设备/设备上的 MTU 是否正确配置

如果 MTU 在运行 Rancher 的主机、创建/导入集群中的节点或两者之间的设备上配置不正确,Rancher 和 Agent 会记录类似以下的错误信息:

  • websocket: bad handshake
  • Failed to connect to proxy
  • read tcp: i/o timeout

有关在 Rancher 和集群节点之间使用 Google Cloud VPN 时如何正确配置 MTU 的示例,请参阅 Google Cloud VPN:MTU 注意事项

已解决的问题

由于缺少节点注释,使用 Canal/Flannel 时覆盖网络中断

GitHub issue#13644
解决于v2.1.2

要检查你的集群是否受到影响,运行以下命令来列出损坏的节点(此命令要求安装 jq):

  1. kubectl get nodes -o json | jq '.items[].metadata | select(.annotations["flannel.alpha.coreos.com/public-ip"] == null or .annotations["flannel.alpha.coreos.com/kube-subnet-manager"] == null or .annotations["flannel.alpha.coreos.com/backend-type"] == null or .annotations["flannel.alpha.coreos.com/backend-data"] == null) | .name'

如果没有输出,则集群没有影响。