一、Calico介绍

Rainbond默认使用Calico定义容器虚拟网络。

Calico是一个纯3层的数据中心网络方案。能够提供可控的VM、容器、裸机之间的IP通信。

通过将整个互联网的可扩展IP网络原则压缩到数据中心级别,Calico在每一个计算节点利用Linux Kernel实现了一个高效的vRouter来负责数据转发,而每个vRouter通过BGP协议负责把自己上运行的workload的路由信息像整个Calico网络内传播——小规模部署可以直接互联,大规模下可通过指定的BGP route reflector来完成。

这样保证最终所有的workload之间的数据流量都是通过IP路由的方式完成互联的。

软件定义网络 - Calico - 图1

Calico节点组网可以直接利用数据中心的网络结构(无论是L2或者L3),不需要额外的NAT,隧道或者Overlay Network。

软件定义网络 - Calico - 图2

如上图所示,这样保证这个方案的简单可控,而且没有封包解包,节约CPU计算资源的同时,提高了整个网络的性能。

此外,Calico基于iptables还提供了丰富而灵活的网络Policy,保证通过各个节点上的ACLs来提供Workload的多租户隔离、安全组以及其他可达性限制等功能。

1.1 Calico 架构

软件定义网络 - Calico - 图3

  • Felix,Calico Agent,跑在每台需要运行Workload的节点上,主要负责配置路由及ACLs等信息来确保Endpoint的连通状态;

  • etcd,分布式键值存储,主要负责网络元数据一致性,确保Calico网络状态的准确性;

  • BGP Client(BIRD), 主要负责把Felix写入Kernel的路由信息分发到当前Calico网络,确保Workload间的通信的有效性;

  • BGP Route Reflector(BIRD),大规模部署时使用,摒弃所有节点互联的 mesh 模式,通过一个或者多个BGP Route Reflector来完成集中式的路由分发;

二、对接云帮

2.1 云帮Calico架构图

软件定义网络 - Calico - 图4

2.2 Calico在云帮实现的功能

  • 容器网络的互连
    Calico在每一个计算节点利用Linux Kernel实现了一个高效的vRouter来负责数据转发,而每个vRouter通过BGP协议负责把自己上运行的workload的路由信息像整个Calico网络内传播——小规模部署可以直接互联,大规模下可通过指定的BGP route reflector来完成。 这样保证最终所有的workload之间的数据流量都是通过IP路由的方式完成互联。

  • 隔离租户
    Calico基于iptables提供了丰富而灵活的网络Policy,保证通过各个节点上的ACLs来提供Workload的多租户隔离、安全组以及其他可达性限制等功能。

2.3 k8s结合calico的使用

  • k8s与calico流程架构图
    软件定义网络 - Calico - 图5

  • 通过k8s创建启动网络容器,通过calico-cni插件根据cni的配置然后分配calico的网络。

  • CNI配置文件介绍

  1. cat /opt/rainbond/etc/cni/10-calico.conf
  2. {
  3. "name": "calico-k8s-network", ##网络的名字
  4. "cniVersion": "0.1.0", ##CNI标准的版本号
  5. "type": "calico", ##网络插件的类型
  6. "etcd_endpoints": "http://127.0.0.1:2379", ##etcd地址
  7. "log_level": "info", ##日志级别
  8. "ipam": {
  9. "type": "calico-ipam" ##ipam的类型
  10. },
  11. "kubernetes": {
  12. "kubeconfig": "/opt/rainbond/etc/kubernetes/kubecfg/admin.kubeconfig". ##kubeconfig文件路径
  13. }
  14. }

三、Calico性能测试

3.1 测试环境

系统 CentOS7.4
宿主机的主机名 宿主机IP 容器IP
calico1 10.80.84.49 172.19.183.195
calico2 10.81.9.113 172.19.189.196
  • 测试工具:iperf 命令

3.2 宿主机测试

  • calico2执行命令
  1. [root@calico2 ~]# iperf -s calico1
  2. iperf: ignoring extra argument -- calico1
  3. ------------------------------------------------------------
  4. Server listening on TCP port 5001
  5. TCP window size: 85.3 KByte (default)
  6. ------------------------------------------------------------
  • calico1执行命令
  1. [root@calico1 ~]# iperf -c calico2 -i 2
  2. ------------------------------------------------------------
  3. Client connecting to calico2, TCP port 5001
  4. TCP window size: 85.0 KByte (default)
  5. ------------------------------------------------------------
  6. [ 3] local 10.80.84.49 port 33618 connected with 10.81.9.113 port 5001
  7. [ ID] Interval Transfer Bandwidth
  8. [ 3] 0.0- 2.0 sec 186 MBytes 781 Mbits/sec
  9. [ 3] 2.0- 4.0 sec 130 MBytes 547 Mbits/sec
  10. [ 3] 4.0- 6.0 sec 124 MBytes 522 Mbits/sec
  11. [ 3] 6.0- 8.0 sec 124 MBytes 519 Mbits/sec
  12. [ 3] 8.0-10.0 sec 124 MBytes 521 Mbits/sec
  13. [ 3] 0.0-10.1 sec 689 MBytes 571 Mbits/sec
  • 以上测试是客户端calico1到服务端calico2的上行带宽测试

3.3 容器测试

  • 在calico1宿主机上的容器端执行命令
  1. rain@36a969da35df472eaab75d71c6b27c11-fr3c2:~$ iperf -s 172.19.189.196
  2. iperf: ignoring extra argument -- 172.19.189.196
  3. ------------------------------------------------------------
  4. Server listening on TCP port 5001
  5. TCP window size: 85.3 KByte (default)
  6. ------------------------------------------------------------
  • 在calico2宿主机的容器执行命令
  1. rain@36a969da35df472eaab75d71c6b27c11-8k3kw:~$ iperf -c 172.19.183.195 -i 2
  2. ------------------------------------------------------------
  3. Client connecting to 172.19.183.195, TCP port 5001
  4. TCP window size: 85.0 KByte (default)
  5. ------------------------------------------------------------
  6. [ 3] local 172.19.189.196 port 54252 connected with 172.19.183.195 port 5001
  7. [ ID] Interval Transfer Bandwidth
  8. [ 3] 0.0- 2.0 sec 179 MBytes 750 Mbits/sec
  9. [ 3] 2.0- 4.0 sec 115 MBytes 481 Mbits/sec
  10. [ 3] 4.0- 6.0 sec 126 MBytes 530 Mbits/sec
  11. [ 3] 6.0- 8.0 sec 115 MBytes 481 Mbits/sec
  12. [ 3] 8.0-10.0 sec 113 MBytes 476 Mbits/sec
  13. [ 3] 0.0-10.0 sec 648 MBytes 543 Mbits/sec
  • 以上测试是客户端calico1的容器到服务端calico2中容器的上行带宽测试

3.4 结论

  • 通过测试对比我们发现使用calico中容器之间的网络与宿主机的消耗是非常小的。

四、Calico维护

4.1 Calico的常用资源

资源 说明
node 物理机连接数
ipPool calico的ip池
policy 节点的资源
profile 配置文件的资源

4.2 Calico对资源的常用操作

  • 资源常用命令

命令用途create创建apply增加delete删除replace修改get查看

  • 操作资源格式

calicoctl <COMMAND> -f <FILE_NAME>

  • 例:添加一个calico的ip池
    calicoctl apply -f ippool.yaml
查看 命令
查看节点连接状态 calicoctl node status
查看状态信息命令格式 calicoctl get < NAME >
以文件格式查看详细信息的命令格式 calicoctl get < NAME > -o yaml
  • 例:以文件形式查看calico的ip池信息
    calicoctl get ippool -o yaml

4.3 Calico启动参数

calico启动配置文件路径为 /etc/systemd/system/calico.service

  1. [Unit]
  2. Description=calico
  3. After=docker.service
  4. [Service]
  5. ExecStartPre=-/bin/bash -c 'docker rm calico'
  6. ExecStart=/bin/bash -c '/usr/bin/docker run --net=host --privileged --name=calico --restart=always -e NO_DEFAULT_POOLS= -e CALICO_LIBNETWORK_ENABLED=true -e CALICO_IPV4POOL_IPIP=always -e IP=10.10.10.19 -e CALICO_IPV4POOL_CIDR=10.20.0.0/16 -e CALICO_LIBNETWORK_CREATE_PROFILES=true -e CALICO_LIBNETWORK_LABEL_ENDPOINTS=false -e CALICO_LIBNETWORK_IFPREFIX=cali -e NODENAME=node1 -e CALICO_NETWORKING_BACKEND=bird -e IP6_AUTODETECTION_METHOD=first-found -e ETCD_ENDPOINTS=http://10.10.10.19:2379 -v /var/log/calico:/var/log/calico -v /var/run/calico:/var/run/calico -v /lib/modules:/lib/modules -v /var/lib/calico:/var/lib/calico -v /run/docker/plugins:/run/docker/plugins -v /var/run/docker.sock:/var/run/docker.sock goodrain.me/calico-node:v3.3.1'
  7. ExecStop=/bin/bash -c 'docker stop calico'
  8. Restart=always
  9. RestartSec=10
  10. [Install]
  11. WantedBy=multi-user.target

五、其它可支持的网络组件

Rainbond还支持midonet、flannel网络组件。

原文: https://www.rainbond.com/docs/stable/operation-manual/network/calico.html