执行模式(流/批)

执行模式(流/批) #

DataStream API 支持不同的运行时执行模式,你可以根据你的用例需要和作业特点进行选择。

DataStream API 有一种”经典“的执行行为,我们称之为流(STREAMING)执行模式。这种模式适用于需要连续增量处理,而且常驻线上的无边界作业。

此外,还有一种批式执行模式,我们称之为批(BATCH)执行模式。这种执行作业的方式类似于 MapReduce 等批处理框架,适用于已知输入、不会连续运行的的有边界作业。

Apache Flink 对流处理和批处理采取统一的处理方式,这意味着无论配置何种执行模式,在有界输入上执行的 DataStream 应用都会产生相同的最终 结果。重要的是要注意最终 在这里是什么意思:一个在模式执行的作业可能会产生增量更新(想想数据库中的插入(upsert)操作),而作业只在最后产生一个最终结果。尽管计算方法不同,只要呈现方式得当,最终结果会是相同的。

通过启用执行模式,Flink 可以对有边界作业进行额外的优化。例如,可以使用不同的关联(join)/ 聚合(aggregation)策略、不同 shuffle 实现来提高任务调度和故障恢复的效率。下面我们将介绍一些执行模式的细节。

什么时候可以/应该使用批执行模式? #

执行模式只能用于 有边界 的作业/Flink 程序。边界是数据源的一个属性,告诉我们是否在执行之前已经知道来自该数据源的所有输入,或者新数据是否会无限期地出现。对一个作业来说,如果它的所有源都是有边界的,则它就是有边界的,否则就是无边界的。

执行模式,既可用于有边界任务,也可用于无边界任务。

一般来说,在你的程序是有边界的时候,应该使用执行模式,因为这样做会更高效。当你的程序是无边界的时候,必须使用执行模式,因为只有这种模式足够通用,能够处理连续的数据流。

一些特殊情况下,你可以使用模式运行有边界作业。其中一种情况为使用有边界作业的运行结果去初始化一些作业状态,并将该状态在之后的无边界作业中使用。例如,通过模式运行一个有边界作业,获取一个 savepoint,然后在一个无边界作业上恢复这个 savepoint。目前来说这是一个可行但非常特殊的用例。当我们允许将 savepoint 作为 执行作业的附加输出时,这个用例会被以执行模式运行有边界作业的更好实践所取代。

另一个可能使用模式运行有边界作业的情况是为无边界数据源写测试代码的时候。对于测试来说,在这些情况下使用有边界数据源可能更自然。

配置批执行模式 #

执行模式可以通过 execution.runtime-mode 设置来配置。有三种可选的值:

  • STREAMING: 经典 DataStream 执行模式(默认)
  • BATCH: 在 DataStream API 上进行批量式执行
  • AUTOMATIC: 让系统根据数据源的边界性来决定

这可以通过 bin/flink run ... 的命令行参数进行配置,或者在创建/配置 StreamExecutionEnvironment 时写进程序。

下面是如何通过命令行配置执行模式:

$ bin/flink run -Dexecution.runtime-mode=BATCH <jarFile>

这个例子展示了如何在代码中配置执行模式:

StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.setRuntimeMode(RuntimeExecutionMode.BATCH);
我们不建议用户在程序中设置运行模式,而是在提交应用程序时使用命令行进行设置。保持应用程序代码的免配置可以让程序更加灵活,因为同一个应用程序可能在任何执行模式下执行。

执行行为 #

本节概述了执行模式的执行行为,并与执行模式进行了对比。详细内容请参考介绍该功能的 FLIP-134FLIP-140.

任务调度与网络 Shuffle #

Flink 作业由不同的操作组成,这些操作在数据流图中连接在一起。系统决定如何在不同的进程/机器(TaskManager)上调度这些操作的执行,以及如何在它们之间 shuffle (发送)数据。

将多个操作/算子链接在一起的功能称为链(Chaining)。Flink 称一个调度单位的一组或多个(链接在一起的)算子为一个 任务。通常,子任务 用来指代在多个 TaskManager 上并行运行的单个任务实例,但我们在这里只使用 任务(task)一词。

任务调度和网络 shuffle 对于执行模式的执行方式不同。这主要是由于在执行模式中,当知道输入数据是有边界的时候,Flink可以使用更高效的数据结构和算法。

我们将用这个例子来解释任务调度和网络传输的差异。

StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

DataStreamSource<String> source = env.fromElements(...);

source.name("source")
	.map(...).name("map1")
	.map(...).name("map2")
	.rebalance()
	.map(...).name("map3")
	.map(...).name("map4")
	.keyBy((value) -> value)
	.map(...).name("map5")
	.map(...).name("map6")
	.sinkTo(...).name("sink");

包含 1-to-1 连接模式的操作,比如 map()flatMap()filter(),可以直接将数据转发到下一个操作,这使得这些操作可以被链接在一起。这意味着 Flink 一般不会在他们之间插入网络 shuffle。

而像 keyBy() 或者 rebalance() 这样需要在不同的任务并行实例之间进行数据 shuffle 的操作,就会引起网络 shuffle。

对于上面的例子,Flink 会将操作分组为这些任务:

  • 任务1: sourcemap1map2
  • 任务2: map3map4
  • 任务3: map5map6sink

我们在任务1到任务2、任务2到任务3之间各有一次网络 shuffle。这是该作业的可视化表示:

Example Job Graph

流执行模式 #

执行模式下,所有任务需要一直在线/运行。这使得 Flink可以通过整个管道立即处理新的记录,以达到我们需要的连续和低延迟的流处理。这同样意味着分配给某个作业的 TaskManagers 需要有足够的资源来同时运行所有的任务。

网络 shuffle 是 流水线 式的,这意味着记录会立即发送给下游任务,在网络层上进行一些缓冲。同样,这也是必须的,因为当处理连续的数据流时,在任务(或任务管道)之间没有可以实体化的自然数据点(时间点)。这与执行模式形成了鲜明的对比,在执行模式下,中间的结果可以被实体化,如下所述。

批执行模式 #

执行模式下,一个作业的任务可以被分离成可以一个接一个执行的阶段。我们之所以能做到这一点,是因为输入是有边界的,因此 Flink 可以在进入下一个阶段之前完全处理管道中的一个阶段。在上面的例子中,工作会有三个阶段,对应着被 shuffle 界线分开的三个任务。

不同于上文所介绍的模式立即向下游任务发送记录,分阶段处理要求 Flink 将任务的中间结果实体化到一些非永久存储中,让下游任务在上游任务已经下线后再读取。这将增加处理的延迟,但也会带来其他有趣的特性。其一,这允许 Flink 在故障发生时回溯到最新的可用结果,而不是重新启动整个任务。其二,作业可以在更少的资源上执行(就 TaskManagers 的可用槽而言),因为系统可以一个接一个地顺序执行任务。

TaskManagers 将至少在下游任务开始消费它们前保留中间结果(从技术上讲,它们将被保留到消费的流水线区域产生它们的输出为止)。在这之后,只要空间允许,它们就会被保留,以便在失败的情况下,可以回溯到前面涉及的结果。

State Backends / State #

模式下,Flink 使用 StateBackend 来控制状态的存储方式和检查点的工作方式。

模式下,配置的 state backend 被忽略。取而代之的是,keyed 操作的输入按键分组(使用排序),然后我们依次处理一个键的所有记录。这样就可以在同一时间只保留一个键的状态。当进行到下一个键时,一个给定键的状态将被丢弃。

关于这方面的背景信息,请参见 FLIP-140

处理顺序 #

执行和执行中,算子或用户自定义函数(UDFs)处理记录的顺序可能不同。

模式下,用户自定义函数不应该对传入记录的顺序做任何假设。数据一到达就被处理。

执行模式下,Flink 通过一些操作确保顺序。排序可以是特定调度任务、网络 shuffle、上文提到的 state backend 或是系统有意识选择的副作用。

我们可以将常见输入类型分为三类:

  • 广播输入(broadcast input): 从广播流输入(参见 广播状态(Broadcast State))
  • 常规输入(regular input): 从广播或 keyed 输入
  • keyed 输入(keyed input): 从 KeyedStream 输入

消费多种类型输入的函数或是算子可以使用以下顺序处理:

  • 广播输入第一个处理
  • 常规输入第二个处理
  • keyed 输入最后处理

对于从多个常规或广播输入进行消费的函数 — 比如 CoProcessFunction — Flink 有权从任一输入以任意顺序处理数据。

对于从多个keyed输入进行消费的函数 — 比如 KeyedCoProcessFunction — Flink 先处理单一键中的所有记录再处理下一个。

事件时间/水印 #

在支持事件时间方面,Flink 的流运行时间建立在一个事件可能是乱序到来的悲观假设上的,即一个时间戳 t 的事件可能会在一个时间戳 t+1 的事件之后出现。因为如此,系统永远无法确定在给定的时间戳 T 下,未来不会再有时间戳 t < T 的元素出现。为了摊平这种失序性对最终结果的影响,同时使系统实用,在模式下,Flink 使用了一种名为 Watermarks 的启发式方法。一个带有时间戳 T 的水印标志着再没有时间戳 t < T 的元素跟进。

模式下,输入的数据集是事先已知的,不需要这样的启发式方法,因为至少可以按照时间戳对元素进行排序,从而按照时间顺序进行处理。对于熟悉流的读者来说,在中,我们可以假设”完美的 Watermark“。

综上所述,在模式下,我们只需要在输入的末尾有一个与每个键相关的 MAX_WATERMARK,如果输入流没有键,则在输入的末尾需要一个 MAX_WATERMARK。基于这个方案,所有注册的定时器都会在时间结束时触发,用户定义的 WatermarkAssignersWatermarkStrategies 会被忽略。但细化一个 WatermarkStrategy 仍然是重要的,因为它的 TimestampAssigner 仍然会被用来给记录分配时间戳。

处理时间 #

处理时间是指在处理记录的具体实例上,处理记录的机器上的挂钟时间。根据这个定义,我们知道基于处理时间的计算结果是不可重复的。因为同一条记录被处理两次,会有两个不同的时间戳。

尽管如此,在模式下处理时间还是很有用的。原因在于因为流式管道从 真实时间 摄取无边界输入,所以事件时间和处理时间之间存在相关性。此外,由于上述原因,在模式下事件时间的1小时也往往可以几乎是处理时间,或者叫挂钟时间的1小时。所以使用处理时间可以用于早期(不完全)触发,给出预期结果的提示。

在批处理世界中,这种相关性并不存在,因为在批处理世界中,输入的数据集是静态的,是预先知道的。鉴于此,在模式中,我们允许用户请求当前的处理时间,并注册处理时间计时器,但与事件时间的情况一样,所有的计时器都要在输入结束时触发。

在概念上,我们可以想象,在作业执行过程中,处理时间不会提前,当整个输入处理完毕后,我们会快进到时间结束。

故障恢复 #

执行模式下,Flink 使用 checkpoints 进行故障恢复。请参看 checkpointing 文档,了解关于如何实践和配置它。关于通过状态快照进行容错,也有一个比较入门的章节,从更高的层面解释了这些概念。

Checkpointing 用于故障恢复的特点之一是,在发生故障时,Flink 会从 checkpoint 重新启动所有正在运行的任务。这可能比我们在模式下所要做的事情代价更高(如下文所解释),这也是如果你的任务允许的话应该使用执行模式的原因之一。

执行模式下,Flink 会尝试并回溯到之前的中间结果仍可获取的处理阶段。只有失败的任务(或它们在图中的前辈)才可能需要重新启动。这与从 checkpoint 重新启动所有任务相比,可以提高作业的处理效率和整体处理时间。

重要的考虑因素 #

与经典的执行模式相比,在模式下,有些东西可能无法按照预期工作。一些功能的工作方式会略有不同,而其他功能会不支持。

模式下的行为变化:

  • “滚动"操作,如 reduce() 或 sum(),会对模式下每一条新记录发出增量更新。在模式下,这些操作不是"滚动”。它们只发出最终结果。

模式下不支持的:

  • Checkpointing 和任何依赖于 checkpointing 的操作都不支持。

自定义算子应谨慎执行,否则可能会有不恰当的行为。更多细节请参见下面的补充说明。

Checkpointing #

上文所述,批处理程序的故障恢复不使用检查点。

重要的是要记住,因为没有 checkpoints,某些功能如 ( CheckpointListener ),以及因此,Kafka 的 精确一次(EXACTLY_ONCE) 模式或 File SinkOnCheckpointRollingPolicy 将无法工作。 如果你需要一个在模式下工作的事务型 sink,请确保它使用 FLIP-143 中提出的统一 Sink API。

你仍然可以使用所有的 状态原语(state primitives),只是用于故障恢复的机制会有所不同。

编写自定义算子 #

注意: 自定义算子是 Apache Flink 的一种高级使用模式。对于大多数的使用情况,可以考虑使用(keyed-)处理函数来代替。

在编写自定义算子时,记住执行模式的假设是很重要的。否则,一个在模式下运行良好的操作符可能会在模式下产生错误的结果。算子永远不会被限定在一个特定的键上,这意味着他们看到了 Flink 试图利用的处理的一些属性。

首先你不应该在一个算子内缓存最后看到的 Watermark。在模式下,我们会逐个键处理记录。因此,Watermark 会在每个键之间从 MAX_VALUE 切换到 MIN_VALUE。你不应该认为 Watermark 在一个算子中总是递增的。出于同样的原因,定时器将首先按键的顺序触发,然后按每个键内的时间戳顺序触发。此外,不支持手动更改键的操作。