其他

Worker节点负载均衡

通过添加节点来使集群的负载平衡。只要workder节点符合service的要求,service的task会被均匀的分配到不同的节点上。当限制service在指定类型的节点上运行时,例如指定节点CPU的个数或者内存的容量,节点如果没有达到这些指定的要求,task是不会在这样的节点上运行的。

监控Swarm健康

我们可以通过通过查询Docker API的HTTP端点/nodes来监控manager节点的健康状况。详情请参考Nodes API docuemntation

在命令行中运行docker node inspect <id-node>,来查询节点。例如,查询mananger节点的可达性:

  1. docker node inspect manager1 --format "{{ .ManagerStatus.Reachability }}"
  2. reachable

查询worker节点接收的task的状态:

  1. docker node inspect manager1 --format "{{ .Status.State }}"
  2. ready

上面的命令我们可以看到manager1节点可达性为reachable,作为workder几点的状态为ready

unreachable状态则表示其他的manager节点服务到达这个节点。这种情况下就需要通过已下办法来恢复该节点:

  • 重启Docker daemon

  • 重启服务器

  • 如果既不重启Docker daemon也不重启服务器,那么就需要添加一个新的manager节点,或者将一个worker节点升级成为一个manager节点。我们也需要通过命令docker node demote <NODE>docker node rm <id-node>彻底移除该节点。

我们也可以在manager节点上执行docker node ls来查看节点:

  1. docker node ls
  2. ID HOSTNAME MEMBERSHIP STATUS AVAILABILITY MANAGER STATUS
  3. 1mhtdwhvsgr3c26xxbnzdc3yp node05 Accepted Ready Active
  4. 516pacagkqp2xc3fk9t1dhjor node02 Accepted Ready Active Reachable
  5. 9ifojw8of78kkusuc4a6c23fx * node01 Accepted Ready Active Leader
  6. ax11wdpwrrb6db3mfjydscgk7 node04 Accepted Ready Active
  7. bb1nrq2cswhtbg4mrsqnlx1ck node03 Accepted Ready Active Reachable
  8. di9wxgz8dtuh9d2hn089ecqkf node06 Accepted Ready Active

强行移除节点

有些情况下,需要在移除节点之前关闭节点。如果节点变成不可达,或者没有响应。我们可以像如下方法使用--force参数强行移除节点。

  1. $ docker node rm node9
  2. Error response from daemon: rpc error: code = 9 desc = node node9 is not down and can't be removed
  3. $ docker node rm --force node9
  4. Node node9 removed from swarm

强行移除节点之前,必须将节点先降级成为worker节点。降级Manager节点时,请确保剩下的manager个数为一个奇数。

强制平衡

通常情况下我们不需要重新平衡task在节点上的分配。只有当我们新加了节点,或者一个节点重新接入Swarm时,Swarm不会自动将已存在的task按照新的节点个数从新在节点之间分配。这种设计的初衷是防止增加节点时,如果task重新分配会造成客户端访问的阻断。

在Docker 1.13或者更高版本,我们可以在命令docker service update使用使用--force或者-f参数来从新分配task。这会造成Service的task滚动重启。