数据源

当前页面所描述的是 Flink 的 Data Source API 及其背后的概念和架构。 如果您对 Flink 中的 Data Source 如何工作感兴趣,或者您想实现一个新的数据 source,请阅读本文。

如果您正在寻找预定义的 source 连接器,请查看连接器文档.

Data Source 原理

核心组件

一个数据 source 包括三个核心组件:分片(Splits)分片枚举器(SplitEnumerator) 以及 源阅读器(SourceReader)

  • 分片(Split) 是对一部分 source 数据的包装,如一个文件或者日志分区。分片是 source 进行任务分配和数据并行读取的基本粒度。

  • 源阅读器(SourceReader) 会请求分片并进行处理,例如读取分片所表示的文件或日志分区。SourceReader 在 TaskManagers 上的 SourceOperators 并行运行,并产生并行的事件流/记录流。

  • 分片枚举器(SplitEnumerator) 会生成分片并将它们分配给 SourceReader。该组件在 JobManager 上以单并行度运行,负责对未分配的分片进行维护,并以均衡的方式将其分配给 reader。

Source 类作为API入口,将上述三个组件结合在了一起。

Illustration of SplitEnumerator and SourceReader interacting

流处理和批处理的统一

Data Source API 以统一的方式对无界流数据和有界批数据进行处理。

事实上,这两种情况之间的区别是非常小的:在有界/批处理情况中,枚举器生成固定数量的分片,而且每个分片都必须是有限的。但在无界流的情况下,则无需遵从限制,也就是分片大小可以不是有限的,或者枚举器将不断生成新的分片。

示例

以下是一些简化的概念示例,以说明在流和批处理情况下 data source 组件如何交互。

请注意,以下内容并没有准确地描述出 Kafka 和 File source 的工作方式,因为出于说明的目的,部分内容被简化处理。

有界 File Source

Source 将包含待读取目录的 URI/路径(Path),以及一个定义了如何对文件进行解析的 格式(Format)。在该情况下:

  • 分片是一个文件,或者是文件的一个区域(如果该文件格式支持对文件进行拆分)。
  • SplitEnumerator 将会列举给定目录路径下的所有文件,并在收到来自 reader 的请求时对分片进行分配。一旦所有的分片都被分配完毕,则会使用 NoMoreSplits 来响应请求。
  • SourceReader 则会请求分片,读取所分配的分片(文件或者文件区域),并使用给定的格式进行解析。如果当前请求没有获得下一个分片,而是 NoMoreSplits,则会终止任务。

无界 Streaming File Source

这个 source 的工作方式与上面描述的基本相同,除了 SplitEnumerator 从不会使用 NoMoreSplits 来响应 SourceReader 的请求,并且还会定期列出给定 URI/路径下的文件来检查是否有新文件。一旦发现新文件,则生成对应的新分片,并将它们分配给空闲的 SourceReader。

无界 Streaming Kafka Source

Source 将具有 Kafka Topic(亦或者一系列 Topics 或者通过正则表达式匹配的 Topic)以及一个 解析器(Deserializer) 来解析记录(record)。

  • 分片是一个 Kafka Topic Partition。
  • SplitEnumerator 会连接到 broker 从而列举出已订阅的 Topics 中的所有 Topic Partitions。枚举器可以重复此操作以检查是否有新的 Topics/Partitions。
  • SourceReader 使用 KafkaConsumer 读取所分配的分片(Topic Partition),并使用提供的 解析器 反序列化记录。由于流处理中分片(Topic Partition)大小是无限的,因此 reader 永远无法读取到数据的尾部。

有界 Kafka Source

这种情况下,除了每个分片(Topic Partition)都会有一个预定义的结束偏移量,其他与上述相同。一旦 SourceReader 读取到分片的结束偏移量,整个分片的读取就会结束。而一旦所有所分配的分片读取结束,SourceReader 也就终止任务了。

Data Source API

本节所描述的是 FLIP—27 中引入的新 Source API 的主要接口,并为开发人员提供有关 Source 开发的相关技巧。

Source

Source API 是一个工厂模式的接口,用于创建以下组件。

  • Split Enumerator
  • Source Reader
  • Split Serializer
  • Enumerator Checkpoint Serializer

除此之外,Source 还提供了 Boundedness 的特性,从而使得 Flink 可以选择合适的模式来运行 Flink 任务。

Source 实现应该是可序列化的,因为 Source 实例会在运行时被序列化并上传到 Flink 集群。

SplitEnumerator

SplitEnumerator 被认为是整个 Source 的“大脑”。SplitEnumerator 的典型实现如下:

  • SourceReader 的注册处理
  • SourceReader 的失败处理
    • SourceReader 失败时会调用 addSplitsBack() 方法。SplitEnumerator应当收回已经被分配,但尚未被该 SourceReader 确认(acknowledged)的分片。
  • SourceEvent 的处理
    • SourceEventsSplitEnumeratorSourceReader 之间来回传递的自定义事件。可以利用此机制来执行复杂的协调任务。
  • 分片的发现以及分配
    • SplitEnumerator 可以将分片分配到 SourceReader 从而响应各种事件,包括发现新的分片,新 SourceReader 的注册,SourceReader 的失败处理等

SplitEnumerator 可以在 SplitEnumeratorContext 的帮助下完成所有上述工作,其会在 SplitEnumerator 的创建或者恢复的时候提供给 SourceSplitEnumeratorContext 允许 SplitEnumerator 检索到 reader 的必要信息并执行协调操作。 而在 Source 的实现中会将 SplitEnumeratorContext 传递给 SplitEnumerator 实例。

SplitEnumerator 的实现可以仅采用被动工作方式,即仅在其方法被调用时采取协调操作,但是一些 SplitEnumerator 的实现会采取主动性的工作方式。例如,SplitEnumerator 定期寻找分片并分配给 SourceReader。 这类问题使用 SplitEnumeratorContext 类中的 callAsync() 方法比较方便。下面的代码片段展示了如何在 SplitEnumerator 不需要自己维护线程的条件下实现这一点。

Java

  1. class MySplitEnumerator implements SplitEnumerator<MySplit, MyCheckpoint> {
  2. private final long DISCOVER_INTERVAL = 60_000L;
  3. /**
  4. * 一种发现分片的方法
  5. */
  6. private List<MySplit> discoverSplits() {...}
  7. @Override
  8. public void start() {
  9. ...
  10. enumContext.callAsync(this::discoverSplits, splits -> {
  11. Map<Integer, List<MySplit>> assignments = new HashMap<>();
  12. int parallelism = enumContext.currentParallelism();
  13. for (MySplit split : splits) {
  14. int owner = split.splitId().hashCode() % parallelism;
  15. assignments.computeIfAbsent(owner, new ArrayList<>()).add(split);
  16. }
  17. enumContext.assignSplits(new SplitsAssignment<>(assignments));
  18. }, 0L, DISCOVER_INTERVAL);
  19. ...
  20. }
  21. ...
  22. }

Python

  1. Python API 中尚不支持该特性。

SourceReader

SourceReader 是一个运行在Task Manager上的组件,用于处理来自分片的记录。

SourceReader 提供了一个拉动式(pull-based)处理接口。Flink 任务会在循环中不断调用 pollNext(ReaderOutput) 轮询来自 SourceReader 的记录。pollNext(ReaderOutput) 方法的返回值指示 SourceReader 的状态。

  • MORE_AVAILABLE - SourceReader 有可用的记录。
  • NOTHING_AVAILABLE - SourceReader 现在没有可用的记录,但是将来可能会有记录可用。
  • END_OF_INPUT - SourceReader 已经处理完所有记录,到达数据的尾部。这意味着 SourceReader 可以终止任务了。

pollNext(ReaderOutput) 会使用 ReaderOutput 作为参数,为了提高性能且在必要情况下,SourceReader 可以在一次 pollNext() 调用中返回多条记录。例如,有时外部系统的工作粒度为块。而一个块可以包含多个记录,但是 source 只能在块的边界处设置 Checkpoint。在这种情况下,SourceReader 可以一次将一个块中的所有记录通过 ReaderOutput 发送至下游。

然而,除非有必要,SourceReader 的实现应该避免在一次 pollNext(ReaderOutput) 的调用中发送多个记录。 这是因为对 SourceReader 轮询的任务线程工作在一个事件循环(event-loop)中,且不能阻塞。

在创建 SourceReader 时,相应的 SourceReaderContext 会提供给 Source,而 Source 则会将相应的上下文传递给 SourceReader 实例。SourceReader 可以通过 SourceReaderContextSourceEvent 传递给相应的 SplitEnumeratorSource 的一个典型设计模式是让 SourceReader 发送它们的本地信息给 SplitEnumerator,后者则会全局性地做出决定。

SourceReader API 是一个底层(low-level) API,允许用户自行处理分片,并使用自己的线程模型来获取和移交记录。为了帮助实现 SourceReader,Flink 提供了 SourceReaderBase 类,可以显著减少编写 SourceReader 所需要的工作量。

强烈建议连接器开发人员充分利用 SourceReaderBase 而不是从头开始编写 SourceReader。更多详细信息,请阅读 SplitReader API 部分。

Source 使用方法

为了通过 Source 创建 DataStream,需要将 Source 传递给 StreamExecutionEnvironment。例如,

Java

  1. final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
  2. Source mySource = new MySource(...);
  3. DataStream<Integer> stream = env.fromSource(
  4. mySource,
  5. WatermarkStrategy.noWatermarks(),
  6. "MySourceName");
  7. ...

Scala

  1. val env = StreamExecutionEnvironment.getExecutionEnvironment()
  2. val mySource = new MySource(...)
  3. val stream = env.fromSource(
  4. mySource,
  5. WatermarkStrategy.noWatermarks(),
  6. "MySourceName")
  7. ...

Python

  1. env = StreamExecutionEnvironment.get_execution_environment()
  2. my_source = ...
  3. env.from_source(
  4. my_source,
  5. WatermarkStrategy.no_watermarks(),
  6. "my_source_name")

SplitReader API

核心的 SourceReader API 是完全异步的, 但实际上,大多数 Sources 都会使用阻塞的操作,例如客户端(如 KafkaConsumer)的 poll() 阻塞调用,或者分布式文件系统(HDFS, S3等)的阻塞I/O操作。为了使其与异步 Source API 兼容,这些阻塞(同步)操作需要在单独的线程中进行,并在之后将数据提交给 reader 的异步线程。

SplitReader 是基于同步读取/轮询的 Source 的高级(high-level)API,例如 file source 和 Kafka source 的实现等。

核心是上面提到的 SourceReaderBase 类,其使用 SplitReader 并创建提取器(fetcher)线程来运行 SplitReader,该实现支持不同的线程处理模型。

SplitReader

SplitReader API 只有以下三个方法:

  • 阻塞式的提取 fetch() 方法,返回值为 RecordsWithSplitIds
  • 非阻塞式处理分片变动 handleSplitsChanges() 方法。
  • 非阻塞式的唤醒 wakeUp() 方法,用于唤醒阻塞中的提取操作。

SplitReader 仅需要关注从外部系统读取记录,因此比 SourceReader 简单得多。 请查看这个类的 Java 文档以获得更多细节。

SourceReaderBase

常见的 SourceReader 实现方式如下:

  • 有一个线程池以阻塞的方式从外部系统提取分片。
  • 解决内部提取线程与其他方法调用(如 pollNext(ReaderOutput))之间的同步。
  • 维护每个分片的水印(watermark)以保证水印对齐。
  • 维护每个分片的状态以进行 Checkpoint。

为了减少开发新的 SourceReader 所需的工作,Flink 提供了 SourceReaderBase 类作为 SourceReader 的基本实现。 SourceReaderBase 已经实现了上述需求。要重新编写新的 SourceReader,只需要让 SourceReader 继承 SourceReaderBase,而后完善一些方法并实现 SplitReader

SplitFetcherManager

SourceReaderBase 支持几个开箱即用(out-of-the-box)的线程模型,取决于 SplitFetcherManager 的行为模式。 SplitFetcherManager 创建和维护一个分片提取器(SplitFetchers)池,同时每个分片提取器使用一个 SplitReader 进行提取。它还决定如何分配分片给分片提取器。

例如,如下所示,一个 SplitFetcherManager 可能有固定数量的线程,每个线程对分配给 SourceReader 的一些分片进行抓取。

One fetcher per split threading model.

以下代码片段实现了此线程模型。

Java

  1. /**
  2. * 一个SplitFetcherManager,它具有固定数量的分片提取器,
  3. * 并根据分片ID的哈希值将分片分配给分片提取器。
  4. */
  5. public class FixedSizeSplitFetcherManager<E, SplitT extends SourceSplit>
  6. extends SplitFetcherManager<E, SplitT> {
  7. private final int numFetchers;
  8. public FixedSizeSplitFetcherManager(
  9. int numFetchers,
  10. FutureCompletingBlockingQueue<RecordsWithSplitIds<E>> elementsQueue,
  11. Supplier<SplitReader<E, SplitT>> splitReaderSupplier) {
  12. super(elementsQueue, splitReaderSupplier);
  13. this.numFetchers = numFetchers;
  14. // 创建 numFetchers 个分片提取器.
  15. for (int i = 0; i < numFetchers; i++) {
  16. startFetcher(createSplitFetcher());
  17. }
  18. }
  19. @Override
  20. public void addSplits(List<SplitT> splitsToAdd) {
  21. // 根据它们所属的提取器将分片聚集在一起。
  22. Map<Integer, List<SplitT>> splitsByFetcherIndex = new HashMap<>();
  23. splitsToAdd.forEach(split -> {
  24. int ownerFetcherIndex = split.hashCode() % numFetchers;
  25. splitsByFetcherIndex
  26. .computeIfAbsent(ownerFetcherIndex, s -> new ArrayList<>())
  27. .add(split);
  28. });
  29. // 将分片分配给它们所属的提取器。
  30. splitsByFetcherIndex.forEach((fetcherIndex, splitsForFetcher) -> {
  31. fetchers.get(fetcherIndex).addSplits(splitsForFetcher);
  32. });
  33. }
  34. }

Python

  1. Python API 中尚不支持该特性。

使用这种线程模型的SourceReader可以像下面这样创建:

Java

  1. public class FixedFetcherSizeSourceReader<E, T, SplitT extends SourceSplit, SplitStateT>
  2. extends SourceReaderBase<E, T, SplitT, SplitStateT> {
  3. public FixedFetcherSizeSourceReader(
  4. FutureCompletingBlockingQueue<RecordsWithSplitIds<E>> elementsQueue,
  5. Supplier<SplitReader<E, SplitT>> splitFetcherSupplier,
  6. RecordEmitter<E, T, SplitStateT> recordEmitter,
  7. Configuration config,
  8. SourceReaderContext context) {
  9. super(
  10. elementsQueue,
  11. new FixedSizeSplitFetcherManager<>(
  12. config.getInteger(SourceConfig.NUM_FETCHERS),
  13. elementsQueue,
  14. splitFetcherSupplier),
  15. recordEmitter,
  16. config,
  17. context);
  18. }
  19. @Override
  20. protected void onSplitFinished(Map<String, SplitStateT> finishedSplitIds) {
  21. // 在回调过程中对完成的分片进行处理。
  22. }
  23. @Override
  24. protected SplitStateT initializedState(SplitT split) {
  25. ...
  26. }
  27. @Override
  28. protected SplitT toSplitType(String splitId, SplitStateT splitState) {
  29. ...
  30. }
  31. }

Python

  1. Python API 中尚不支持该特性。

SourceReader 的实现还可以在 SplitFetcherManagerSourceReaderBase 的基础上编写自己的线程模型。

事件时间和水印

Source 的实现需要完成一部分事件时间分配和水印生成的工作。离开 SourceReader 的事件流需要具有事件时间戳,并且(在流执行期间)包含水印。有关事件时间和水印的介绍,请参见及时流处理

旧版 SourceFunction 的应用通常在之后的单独的一步中通过 stream.assignTimestampsAndWatermarks(WatermarkStrategy) 生成时间戳和水印。这个函数不应该与新的 Sources 一起使用,因为此时时间戳应该已经被分配了,而且该函数会覆盖掉之前的分片(split-aware)水印。

API

在 DataStream API 创建期间, WatermarkStrategy 会被传递给 Source,并同时创建 TimestampAssignerWatermarkGenerator

Java

  1. environment.fromSource(
  2. Source<OUT, ?, ?> source,
  3. WatermarkStrategy<OUT> timestampsAndWatermarks,
  4. String sourceName);

Python

  1. environment.from_source(
  2. source: Source,
  3. watermark_strategy: WatermarkStrategy,
  4. source_name: str,
  5. type_info: TypeInformation = None)

TimestampAssignerWatermarkGenerator 作为 ReaderOutput(或 SourceOutput)的一部分透明地运行,因此 Source 实现者不必实现任何时间戳提取和水印生成的代码。

事件时间戳

事件时间戳的分配分为以下两步:

  1. SourceReader 通过调用 SourceOutput.collect(event, timestamp)Source 记录的时间戳添加到事件中。 该实现只能用于含有记录并且拥有时间戳特性的数据源,例如 Kafka、Kinesis、Pulsar 或 Pravega。 因此,记录中不带有时间戳特性的数据源(如文件)也就无法实现这一步了。 此步骤是 Source 连接器实现的一部分,不由使用 Source 的应用程序进行参数化设定。

  2. 由应用程序配置的 TimestampAssigner 分配最终的时间戳。 TimestampAssigner 会查看原始的 Source 记录的时间戳和事件。分配器可以直接使用 Source 记录的时间戳或者访问事件的某个字段获得最终的事件时间戳。

这种分两步的方法使用户既可以引用 Source 系统中的时间戳,也可以引用事件数据中的时间戳作为事件时间戳。

注意: 当使用没有 Source 记录的时间戳的数据源(如文件)并选择 Source 记录的时间戳作为最终的事件时间戳时,默认的事件时间戳等于 LONG_MIN (=-9,223,372,036,854,775,808)

水印生成

水印生成器仅在流执行期间会被激活。批处理执行则会停用水印生成器,则下文所述的所有相关操作实际上都变为无操作。

数据 Source API 支持每个分片单独运行水印生成器。这使得 Flink 可以分别观察每个分片的事件时间进度,这对于正确处理事件时间偏差和防止空闲分区阻碍整个应用程序的事件时间进度来说是很重要的。

Watermark Generation in a Source with two Splits.

使用 SplitReader API 实现源连接器时,将自动进行处理。所有基于 SplitReader API 的实现都具有开箱即用(out-of-the-box)的分片水印。

为了保证更底层的 SourceReader API 可以使用每个分片的水印生成,必须将不同分片的事件输送到不同的输出(outputs)中:局部分片(Split-local) SourceOutputs。通过 createOutputForSplit(splitId)releaseOutputForSplit(splitId) 方法,可以在总 ReaderOutput 上创建并发布局部分片输出。有关详细信息,请参阅该类和方法的 Java 文档。