Linkerd简介

注意:Linkerd最初版本是使用Scala开发的,现在已开始开发Linkerd2,使用Go语言开发,该公司的另一款轻量级Service Mesh conduit也寿终正寝,合并入Linkerd 2.0,详见Conduit 0.5发布—以及R.I.P. Conduit

Linkerd是一个用于云原生应用的开源、可扩展的service mesh(一般翻译成服务网格,还有一种说法叫”服务啮合层“,见Istio:用于微服务的服务啮合层)。

Linkerd是什么

Linkerd的出现是为了解决像twitter、google这类超大规模生产系统的复杂性问题。Linkerd不是通过控制服务之间的通信机制来解决这个问题,而是通过在服务实例之上添加一个抽象层来解决的。

source https://linkerd.io

Linkerd负责跨服务通信中最困难、易出错的部分,包括延迟感知、负载平衡、连接池、TLS、仪表盘、请求路由等——这些都会影响应用程序伸缩性、性能和弹性。

如何运行

Linkerd作为独立代理运行,无需特定的语言和库支持。应用程序通常会在已知位置运行linkerd实例,然后通过这些实例代理服务调用——即不是直接连接到目标服务,服务连接到它们对应的linkerd实例,并将它们视为目标服务。

在该层上,linkerd应用路由规则,与现有服务发现机制通信,对目标实例做负载均衡——与此同时调整通信并报告指标。

通过延迟调用linkerd的机制,应用程序代码与以下内容解耦:

  • 生产拓扑
  • 服务发现机制
  • 负载均衡和连接管理逻辑

应用程序也将从一致的全局流量控制系统中受益。这对于多语言应用程序尤其重要,因为通过库来实现这种一致性是非常困难的。

Linkerd实例可以作为sidecar(既为每个应用实体或每个主机部署一个实例)来运行。 由于linkerd实例是无状态和独立的,因此它们可以轻松适应现有的部署拓扑。它们可以与各种配置的应用程序代码一起部署,并且基本不需要去协调它们。

详解

Linkerd 的基于 Kubernetes 的 Service Mesh 部署方式是使用 Kubernetes 中的 DaemonSet 资源对象,如下图所示。

Linkerd 部署架构(图片来自https://buoyant.io/2016/10/14/a-service-mesh-for-kubernetes-part-ii-pods-are-great-until-theyre-not/)

这样 Kubernetes 集群中的每个节点都会运行一个 Linkerd 的 Pod。

但是这样做就会有几个问题:

  • 节点上的应用如何发现其所在节点上的 Linkerd 呢?
  • 节点间的 Linkerd 如何路由的呢?
  • Linkerd 如何将接收到的流量路由到正确的目的应用呢?
  • 如何对应用的路有做细粒度的控制?

这几个问题在 Buoyant 公司的这篇博客中都有解答:A Service Mesh for Kubernetes, Part II: Pods are great until they’re not,我们下面将简要的回答上述问题。

节点上的应用如何发现其所在节点上的 Linkerd 呢?

简而言之,是使用环境变量的方式,如在应用程序中注入环境变量 http_proxy

  1. env:
  2. - name: NODE_NAME
  3. valueFrom:
  4. fieldRef:
  5. fieldPath: spec.nodeName
  6. - name: http_proxy
  7. value: $(NODE_NAME):4140
  8. args:
  9. - "-addr=:7777"
  10. - "-text=Hello"
  11. - "-target=world"

这要求应用程序必须支持该环境变量,为应用程序所在的 Pod 设置了一个代理,实际上对于每种不同的协议 Linkerd 都监听不同的端口。

  • 4140 for HTTP
  • 4240 for HTTP/2
  • 4340 for gRPC

关于 Linkerd 作为 Service Mesh 的详细配置请参考 serivcemesh.yml

节点间的 Linkerd 如何路由的以及 Linkerd 如何将接收到的流量路由到正确的目的应用呢?

通过 transformer 来确定节点间的 Linkerd 路由,参考下面的配置:

  1. routers:
  2. - protocol: http
  3. label: outgoing
  4. interpreter:
  5. kind: default
  6. transformers:
  7. - kind: io.l5d.k8s.daemonset
  8. namespace: default
  9. port: incoming
  10. service: l5d

Router 定义 Linkerd 如何实际地处理流量。Router 监听请求并在这些请求上应用路有规则,代理这些请求到正确的目的地。Router 是与协议相关的。对于每个 Router 都需要定义一个 incoming router 和一个 outcoming router。预计该应用程序将流量发送到 outcoming router,该 outcoming router 将其代理到目标服务节点上运行的 Linkerd 的 incoming router。Incoming router 后将请求代理给目标应用程序本身。我们还定义了 HTTP 和 HTTP/2 incoming router,它们充当 Ingress controller 并基于 Ingress 资源进行路由。

如何对路由规则做细粒度的控制呢?

路由规则配置是在 namerd 中进行的,例如:

  1. $ namerctl dtab get internal
  2. # version MjgzNjk5NzI=
  3. /srv => /#/io.l5d.k8s/default/http ;
  4. /host => /srv ;
  5. /tmp => /srv ;
  6. /svc => /host ;
  7. /host/world => /srv/world-v1 ;

Namerd 中存储了很多 dtab 配置,通过这些配置来管理路有规则,实现微服务的流量管理。

基于 dtab 的路由规则配置阶段发布

如果将 Linkerd 作为边缘节点还可以充当 Ingress controller,如下图所示。

Linkerd ingress controller

Linkerd 自己最令人称道的是它在每台主机上只安装一个 Pod,如果使用 Sidecar 模式会为每个应用程序示例旁都运行一个容器,这样会导致过多的资源消耗。Squeezing blood from a stone: small-memory JVM techniques for microservice sidecars 这篇文章中详细说明了 Linkerd 的资源消耗与性能。

参考