分布式集群

分布式 Erlang

Erlang/OTP 最初是爱立信为开发电信设备系统设计的编程语言平台,电信设备 (路由器、接入网关…) 典型设计是通过背板连接主控板卡与多块业务板卡的分布式系统。

节点与分布式 Erlang

Erlang/OTP 语言平台的分布式程序,由分布互联的 Erlang 运行时系统组成,每个 Erlang 运行时系统被称为节点(Node),节点间通过 TCP 两两互联,组成一个网状结构。

Erlang 节点由唯一的节点名称标识,节点名称由 @ 分隔的两部分组成:

  1. <name>@<ip-address>

节点间通过节点名称进行通信寻址。例如在本机启动四个 shell 终端,然后使用 -name 参数分别启动四个 Erlang 节点:

  1. erl -name node1@127.0.0.1 -setcookie my_nodes
  2. erl -name node2@127.0.0.1 -setcookie my_nodes
  3. erl -name node3@127.0.0.1 -setcookie my_nodes
  4. erl -name node4@127.0.0.1 -setcookie my_nodes

使用 node(). 可查看本节点名,使用 nodes(). 可查看已与当前节点建立连接的其他节点。我们现在到 ‘node1@127.0.0.1’ 的控制台下,查看当前节点名和已连接的节点:

  1. (node1@127.0.0.1) 4> node().
  2. 'node1@127.0.0.1'
  3. (node1@127.0.0.1) 4> nodes().
  4. []

然后我们让 node1 发起与其他节点的连接:

  1. (node1@127.0.0.1) 1> net_kernel:connect_node('node2@127.0.0.1').
  2. true
  3. (node1@127.0.0.1) 2> net_kernel:connect_node('node3@127.0.0.1').
  4. true
  5. (node1@127.0.0.1) 3> net_kernel:connect_node('node4@127.0.0.1').
  6. true

现在再次可查看已与 node1 建立连接的其他节点:

  1. (node1@127.0.0.1) 4> nodes().
  2. ['node2@127.0.0.1','node3@127.0.0.1','node4@127.0.0.1']

可以看到 node2、node3、node4 都已与 node1 建立了分布式连接,四个节点组成了一个集群。注意每当一个新的节点加入集群时,它会与集群中所有的节点都建立一个 TCP 连接。至此,四个节点完成了如下图所示的网状结构:

image

安全

Erlang 节点间通过 cookie 进行互连认证。cookie 是一个字符串,只有 cookie 相同的两个节点才能建立连接。上节 中我们曾经使用 -setcookie my_nodes 参数给四个节点设置了相同的 cookie: my_nodes

详见: http://erlang.org/doc/reference_manual/distributed.html分布集群 - 图2 (opens new window)

节点间RPC使用TLS

为保障节点间通信的安全性,可以为节点间的RPC连接开启TLS。 TLS 可能会到指节点的CPU使用率上升。

  1. 创建一个自签名的根证书
  1. # Create self-signed root CA:
  2. openssl req -nodes -x509 -sha256 -days 1825 -newkey rsa:2048 -keyout rootCA.key -out rootCA.pem -subj "/O=LocalOrg/CN=LocalOrg-Root-CA"
  1. 使用第一步的根证书签发节点证书
  1. # Create a private key:
  2. openssl genrsa -out domain.key 2048
  3. # Create openssl extfile:
  4. cat <<EOF > domain.ext
  5. authorityKeyIdentifier=keyid,issuer
  6. basicConstraints=CA:FALSE
  7. subjectAltName = @alt_names
  8. [alt_names]
  9. DNS.1 = backplane
  10. EOF
  11. # Create a CSR:
  12. openssl req -key domain.key -new -out domain.csr -subj "/O=LocalOrg"
  13. # Sign the CSR with the Root CA:
  14. openssl x509 -req -CA rootCA.pem -CAkey rootCA.key -in domain.csr -out domain.pem -days 365 -CAcreateserial -extfile domain.ext

请注意,集群中的所有节点必须使用同一个跟证书。

  1. 为每个节点,将生成的私钥以及证书文件 domain.pem, domain.keyrootCA.pem 放置在 /var/lib/emqx/ssl。 请保证 emqx 用户是这些文件的所有者,并设置权限为 600.

  2. 如果版本是企业版 4.4.0, 需要在 releases/4.4.0/emqx.schema 末尾增加如下配置

  1. {mapping, "rpc.default_client_driver", "gen_rpc.default_client_driver",
  2. [{default, tcp}, {datatype, {enum, [tcp, ssl]}}]}.
  1. 在企业版的 etc/rpc.conf, 或开源版的 etc/emqx.conf 中加入如下配置:
  1. rpc.driver=ssl
  2. rpc.default_client_driver=ssl
  3. rpc.certfile=/var/lib/emqx/ssl/domain.pem
  4. rpc.cacertfile=/var/lib/emqx/ssl/rootCA.pem
  5. rpc.keyfile=/var/lib/emqx/ssl/domain.key
  6. rpc.enable_ssl=5369

EMQX 集群协议设置

Erlang 集群中各节点可通过 TCPv4、TCPv6 或 TLS 方式连接,可在 etc/emqx.conf 中配置连接方式:

配置名类型默认值描述
cluster.proto_distenuminet_tcp分布式协议,可选值:
- inet_tcp: 使用 TCP IPv4
- inet6_tcp: 使用 TCP IPv6
- inet_tls: 使用 TLS
node.ssl_dist_optfile文件路径etc/ssl_dist.confcluster.proto_dist 选定为 inet_tls 时,需要配置 etc/ssl_dist.conf 文件,指定 TLS 证书等

EMQX 分布式集群设计

EMQX 分布式的基本功能是将消息转发和投递给各节点上的订阅者,如下图所示:

image

为实现此过程,EMQX 维护了几个与之相关的数据结构:订阅表,路由表,主题树。

订阅表: 主题 - 订阅者

MQTT 客户端订阅主题时,EMQX 会维护主题(Topic) -> 订阅者(Subscriber) 映射的订阅表。订阅表只存在于订阅者所在的 EMQX 节点上,例如:

  1. node1:
  2. topic1 -> client1, client2
  3. topic2 -> client3
  4. node2:
  5. topic1 -> client4

路由表: 主题 - 节点

而同一集群的所有节点,都会复制一份主题(Topic) -> 节点(Node) 映射的路由表,例如:

  1. topic1 -> node1, node2
  2. topic2 -> node3
  3. topic3 -> node2, node4

主题树: 带统配符的主题匹配

除路由表之外,EMQX 集群中的每个节点也会维护一份主题树(Topic Trie) 的备份。

例如下述主题订阅关系:

客户端节点订阅主题
client1node1t/+/x, t/+/y
client2node2t/#
client3node3t/+/x, t/a

在所有订阅完成时,EMQX 中会维护如下主题树 (Topic Trie) 和路由表 (Route Table):

image

消息派发过程

当 MQTT 客户端发布消息时,所在节点会根据消息主题,检索路由表并转发消息到相关节点,再由相关节点检索本地的订阅表并将消息发送给相关订阅者。

例如 client1 向主题 t/a 发布消息,消息在节点间的路由与派发流程:

  1. client1 发布主题为 t/a 的消息到节点 node1
  2. node1 通过查询主题树,得知 t/a 可匹配到现有的 t/at/# 这两个主题。
  3. node1 通过查询路由表,得知主题 t/a 只在 node3 上有订阅者,而主题 t/# 只在 node2 上有订阅者。故 node1 将消息转发给 node2 和 node3。
  4. node2 收到转发来的 t/a 消息后,查询本地订阅表,获取本节点上订阅了 t/# 的订阅者,并把消息投递给他们。
  5. node3 收到转发来的 t/a 消息后,查询本地订阅表,获取本节点上订阅了 t/a 的订阅者,并把消息投递给他们。
  6. 消息转发和投递结束。

数据分片与共享方式

EMQX 的订阅表在集群中是分片(partitioned)的,而主题树和路由表是共享(replicated)的。

节点发现与自动集群

EMQX 支持基于 Ekka 库的集群自动发现 (Autocluster)。Ekka 是为 Erlang/OTP 应用开发的集群管理库,支持 Erlang 节点自动发现 (Service Discovery)、自动集群 (Autocluster)、网络分区自动愈合 (Network Partition Autoheal)、自动删除宕机节点 (Autoclean)。

EMQX 支持多种节点发现策略:

策略说明
manual手动命令创建集群
static静态节点列表自动集群
dnsDNS A 记录自动集群
etcd通过 etcd 自动集群
k8sKubernetes 服务自动集群

注意:mcast发现策略已被废弃,在未来的版本中会被删除。

manual 手动创建集群

默认配置为手动创建集群,节点须通过 ./bin/emqx_ctl join <Node> 命令加入:

  1. cluster.discovery = manual

基于 static 节点列表自动集群

配置固定的节点列表,自动发现并创建集群:

  1. cluster.discovery = static
  2. cluster.static.seeds = emqx1@127.0.0.1,emqx2@127.0.0.1

基于 mcast 组播自动集群

基于 UDP 组播自动发现并创建集群:

  1. cluster.discovery = mcast
  2. cluster.mcast.addr = 239.192.0.1
  3. cluster.mcast.ports = 4369,4370
  4. cluster.mcast.iface = 0.0.0.0
  5. cluster.mcast.ttl = 255
  6. cluster.mcast.loop = on

基于 DNS A 记录自动集群

基于 DNS A 记录自动发现并创建集群:

  1. cluster.discovery = dns
  2. cluster.dns.name = localhost
  3. cluster.dns.app = ekka

基于 etcd 自动集群

基于 etcd分布集群 - 图5 (opens new window) 自动发现并创建集群:

  1. cluster.discovery = etcd
  2. cluster.etcd.server = http://127.0.0.1:2379
  3. cluster.etcd.prefix = emqcl
  4. cluster.etcd.node_ttl = 1m

基于 kubernetes 自动集群

Kubernetes分布集群 - 图6 (opens new window) 下自动发现并创建集群:

  1. cluster.discovery = k8s
  2. cluster.k8s.apiserver = http://10.110.111.204:8080
  3. cluster.k8s.service_name = ekka
  4. cluster.k8s.address_type = ip
  5. cluster.k8s.app_name = ekka

Kubernetes 不建议使用 Fannel 网络插件,推荐使用 Calico 网络插件。

手动(manual) 方式管理集群介绍

假设要在两台服务器 s1.emqx.io, s2.emqx.io 上部署 EMQX 集群:

节点名主机名 (FQDN)IP 地址
emqx@s1.emqx.io 或 emqx@192.168.0.10s1.emqx.io192.168.0.10
emqx@s2.emqx.io 或 emqx@192.168.0.20s2.emqx.io192.168.0.20

注意: 节点名格式为 Name@Host, Host 必须是 IP 地址或 FQDN (主机名。域名)

配置 emqx@s1.emqx.io 节点

emqx/etc/emqx.conf:

  1. node.name = emqx@s1.emqx.io
  2. # 或
  3. node.name = emqx@192.168.0.10

也可通过环境变量:

  1. export EMQX_NODE_NAME=emqx@s1.emqx.io && ./bin/emqx start

注意: 节点启动加入集群后,节点名称不能变更。

配置 emqx@s2.emqx.io 节点

emqx/etc/emqx.conf:

  1. node.name = emqx@s2.emqx.io
  2. # 或
  3. node.name = emqx@192.168.0.20

节点加入集群

启动两台节点后,在 s2.emqx.io 上执行:

  1. $ ./bin/emqx_ctl cluster join emqx@s1.emqx.io
  2. Join the cluster successfully.
  3. Cluster status: [{running_nodes,['emqx@s1.emqx.io','emqx@s2.emqx.io']}]

或者在 s1.emqx.io 上执行:

  1. $ ./bin/emqx_ctl cluster join emqx@s2.emqx.io
  2. Join the cluster successfully.
  3. Cluster status: [{running_nodes,['emqx@s1.emqx.io','emqx@s2.emqx.io']}]

在任意节点上查询集群状态:

  1. $ ./bin/emqx_ctl cluster status
  2. Cluster status: [{running_nodes,['emqx@s1.emqx.io','emqx@s2.emqx.io']}]

退出集群

节点退出集群,两种方式:

  1. leave: 让本节点退出集群
  2. force-leave: 从集群删除其他节点

让 emqx@s2.emqx.io 主动退出集群:

  1. $ ./bin/emqx_ctl cluster leave

或在 s1.emqx.io 上,从集群删除 emqx@s2.emqx.io 节点:

  1. $ ./bin/emqx_ctl cluster force-leave emqx@s2.emqx.io

单机伪分布式

对于只有个人电脑或者一台服务器的用户来说,可以使用伪分布式集群。请注意,我们若要在单机上启动两个或多个 emqx 实例,为避免端口冲突,我们需要对其它节点的监听端口做出调整。

基本思路是复制一份 emqx 文件夹然后命名为 emqx2 ,将原先所有 emqx 节点监听的端口 port 加上一个偏移 offset 作为新的 emqx2 节点的监听端口。例如,将原先 emqx 的MQTT/TCP 监听端口由默认的 1883 改为了 2883 作为 emqx2 的 MQTT/TCP 监听端口。完成以上操作的自动化脚本可以参照 集群脚本分布集群 - 图7 (opens new window),具体配置请参见 配置说明配置项

网络分区与自动愈合

EMQX 支持网络分区自动恢复(Network Partition Autoheal),可在 etc/emqx.conf 中配置:

  1. cluster.autoheal = on

网络分区自动恢复流程:

  1. 节点收到 Mnesia 的 inconsistent_database 事件 3 秒后进行集群网络分区确认;
  2. 节点确认集群网络分区发生后,向 Leader 节点 (集群中最早启动节点) 上报网络分区消息;
  3. Leader 节点延迟一段时间后,在全部节点在线状态下创建网络分区视图 (SplitView);
  4. Leader 节点在多数派 (majority) 分区选择集群自愈的 Coordinator 节点;
  5. Coordinator 节点重启少数派 (minority) 分区节点恢复集群。

集群节点自动清除

EMQX 支持从集群自动删除宕机节点 (Autoclean),可在 etc/emqx.conf 中配置:

  1. cluster.autoclean = 5m

防火墙设置

集群节点发现端口

若预先设置了环境变量 WITH_EPMD=1, 启动 emqx 时会使用启动 epmd (监听端口 4369) 做节点发现。称为 epmd 模式

若环境变量 WITH_EPMD 没有设置,则启动 emqx 时不启用 epmd,而使用 emqx ekka 的节点发现,这也是 4.0 之后的默认节点发现方式。称为 ekka 模式

epmd 模式:

如果集群节点间存在防火墙,防火墙需要为每个节点开通 TCP 4369 端口,用来让各节点能互相访问。

防火墙还需要开通一个 TCP 从 node.dist_listen_min(包含) 到 node.dist_listen_max(包含) 的端口段, 这两个配置的默认值都是 6369

ekka 模式(4.0 版本之后的默认模式):

empd 模式不同,在ekka 模式下,集群发现端口的映射关系是约定好的,而不是动态的。 node.dist_listen_min and node.dist_listen_max 两个配置在ekka 模式下不起作用。

如果集群节点间存在防火墙,防火墙需要放开这个约定的端口。约定端口的规则如下:

  1. ListeningPort = BasePort + Offset

其中 BasePort 为 4370 (不可配置), Offset 为节点名的数字后缀. 如果节点名没有数字后缀的话, Offsset 为 0。

举例来说, 如果 emqx.conf 里配置了节点名:node.name = emqx@192.168.0.12,那么监听端口为 4370, 但对于 emqx1 (或者 emqx-1) 端口就是 4371,以此类推。

The Cluster PRC Port

每个节点还需要监听一个 RPC 端口,也需要被防火墙也放开。跟上面说的ekka 模式下的集群发现端口一样,这个 RPC 端口也是约定式的。

RPC 端口的规则跟ekka 模式下的集群发现端口类似,只不过 BasePort = 5370

就是说,如果 emqx.conf 里配置了节点名:node.name = emqx@192.168.0.12,那么监听端口为 5370, 但对于 emqx1 (或者 emqx-1) 端口就是 5371,以此类推。