State Backends #
用 Data Stream API 编写的程序通常以各种形式保存状态:
- 在 Window 触发之前要么收集元素、要么聚合
- 转换函数可以使用 key/value 格式的状态接口来存储状态
- 转换函数可以实现
CheckpointedFunction
接口,使其本地变量具有容错能力
另请参阅 Streaming API 指南中的 状态部分 。
在启动 CheckPoint 机制时,状态会随着 CheckPoint 而持久化,以防止数据丢失、保障恢复时的一致性。 状态内部的存储格式、状态在 CheckPoint 时如何持久化以及持久化在哪里均取决于选择的 State Backend。
可用的 State Backends #
Flink 内置了以下这些开箱即用的 state backends :
- HashMapStateBackend
- EmbeddedRocksDBStateBackend
如果不设置,默认使用 HashMapStateBackend。
HashMapStateBackend #
在 HashMapStateBackend 内部,数据以 Java 对象的形式存储在堆中。 Key/value 形式的状态和窗口算子会持有一个 hash table,其中存储着状态值、触发器。
HashMapStateBackend 的适用场景:
- 有较大 state,较长 window 和较大 key/value 状态的 Job。
- 所有的高可用场景。
建议同时将 managed memory 设为0,以保证将最大限度的内存分配给 JVM 上的用户代码。
与 EmbeddedRocksDBStateBackend 不同的是,由于 HashMapStateBackend 将数据以对象形式存储在堆中,因此重用这些对象数据是不安全的。
EmbeddedRocksDBStateBackend #
EmbeddedRocksDBStateBackend 将正在运行中的状态数据保存在 RocksDB 数据库中,RocksDB 数据库默认将数据存储在 TaskManager 的数据目录。
不同于 HashMapStateBackend
中的 java 对象,数据被以序列化字节数组的方式存储,这种方式由序列化器决定,因此 key 之间的比较是以字节序的形式进行而不是使用 Java 的 hashCode
或 equals()
方法。
EmbeddedRocksDBStateBackend 会使用异步的方式生成 snapshots。
EmbeddedRocksDBStateBackend 的局限:
- 由于 RocksDB 的 JNI API 构建在 byte[] 数据结构之上, 所以每个 key 和 value 最大支持 2^31 字节。 RocksDB 合并操作的状态(例如:ListState)累积数据量大小可以超过 2^31 字节,但是会在下一次获取数据时失败。这是当前 RocksDB JNI 的限制。
EmbeddedRocksDBStateBackend 的适用场景:
- 状态非常大、窗口非常长、key/value 状态非常大的 Job。
- 所有高可用的场景。
注意,你可以保留的状态大小仅受磁盘空间的限制。与状态存储在内存中的 HashMapStateBackend 相比,EmbeddedRocksDBStateBackend 允许存储非常大的状态。 然而,这也意味着使用 EmbeddedRocksDBStateBackend 将会使应用程序的最大吞吐量降低。 所有的读写都必须序列化、反序列化操作,这个比基于堆内存的 state backend 的效率要低很多。 同时因为存在这些序列化、反序列化操作,重用放入 EmbeddedRocksDBStateBackend 的对象是安全的。
请同时参考 Task Executor 内存配置 中关于 EmbeddedRocksDBStateBackend 的建议。
EmbeddedRocksDBStateBackend 是目前唯一支持增量 CheckPoint 的 State Backend (见 这里)。
可以使用一些 RocksDB 的本地指标(metrics),但默认是关闭的。你能在 这里 找到关于 RocksDB 本地指标的文档。
每个 slot 中的 RocksDB instance 的内存大小是有限制的,详情请见 这里。
选择合适的 State Backend #
在选择 HashMapStateBackend
和 RocksDB
的时候,其实就是在性能与可扩展性之间权衡。HashMapStateBackend
是非常快的,因为每个状态的读取和算子对于 objects 的更新都是在 Java 的 heap 上;但是状态的大小受限于集群中可用的内存。
另一方面,RocksDB
可以根据可用的 disk 空间扩展,并且只有它支持增量 snapshot。
然而,每个状态的读取和更新都需要(反)序列化,而且在 disk 上进行读操作的性能可能要比基于内存的 state backend 慢一个数量级。
在 Flink 1.13 版本中我们统一了 savepoints 的二进制格式。这意味着你可以生成 savepoint 并且之后使用另一种 state backend 读取它。 从 1.13 版本开始,所有的 state backends 都会生成一种普适的格式。因此,如果想切换 state backend 的话,那么最好先升级你的 Flink 版本,在新版本中生成 savepoint,在这之后你才可以使用一个不同的 state backend 来读取并恢复它。
设置 State Backend #
如果没有明确指定,将使用 jobmanager 做为默认的 state backend。你能在 flink-conf.yaml 中为所有 Job 设置其他默认的 State Backend。 每一个 Job 的 state backend 配置会覆盖默认的 state backend 配置,如下所示:
设置每个 Job 的 State Backend #
StreamExecutionEnvironment
可以对每个 Job 的 State Backend 进行设置,如下所示:
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.setStateBackend(new HashMapStateBackend());
val env = StreamExecutionEnvironment.getExecutionEnvironment()
env.setStateBackend(new HashMapStateBackend())
env = StreamExecutionEnvironment.get_execution_environment()
env.set_state_backend(HashMapStateBackend())
如果你想在 IDE 中使用 EmbeddedRocksDBStateBackend
,或者需要在作业中通过编程方式动态配置它,必须添加以下依赖到 Flink 项目中。
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-statebackend-rocksdb</artifactId>
<version>1.18.1</version>
<scope>provided</scope>
</dependency>
注意: 由于 RocksDB 是 Flink 默认分发包的一部分,所以如果你没在代码中使用 RocksDB,则不需要添加此依赖。而且可以在flink-conf.yaml
文件中通过state.backend.type
配置 State Backend,以及更多的 checkpointing 和 RocksDB 特定的 参数。
设置默认的(全局的) State Backend #
在 flink-conf.yaml
可以通过键 state.backend.type
设置默认的 State Backend。
可选值包括 jobmanager (HashMapStateBackend), rocksdb (EmbeddedRocksDBStateBackend),
或使用实现了 state backend 工厂
StateBackendFactory
的类的全限定类名,
例如: EmbeddedRocksDBStateBackend 对应为 org.apache.flink.contrib.streaming.state.EmbeddedRocksDBStateBackendFactory
。
state.checkpoints.dir
选项指定了所有 State Backend 写 CheckPoint 数据和写元数据文件的目录。
你能在 这里 找到关于 CheckPoint 目录结构的详细信息。
配置文件的部分示例如下所示:
# 用于存储 operator state 快照的 State Backend
state.backend: hashmap
# 存储快照的目录
state.checkpoints.dir: hdfs://namenode:40010/flink/checkpoints
RocksDB State Backend 进阶 #
该小节描述 RocksDB state backend 的更多细节
增量快照 #
RocksDB 支持增量快照。不同于产生一个包含所有数据的全量备份,增量快照中只包含自上一次快照完成之后被修改的记录,因此可以显著减少快照完成的耗时。
一个增量快照是基于(通常多个)前序快照构建的。由于 RocksDB 内部存在 compaction 机制对 sst 文件进行合并,Flink 的增量快照也会定期重新设立起点(rebase),因此增量链条不会一直增长,旧快照包含的文件也会逐渐过期并被自动清理。
和基于全量快照的恢复时间相比,如果网络带宽是瓶颈,那么基于增量快照恢复可能会消耗更多时间,因为增量快照包含的 sst 文件之间可能存在数据重叠导致需要下载的数据量变大;而当 CPU 或者 IO 是瓶颈的时候,基于增量快照恢复会更快,因为从增量快照恢复不需要解析 Flink 的统一快照格式来重建本地的 RocksDB 数据表,而是可以直接基于 sst 文件加载。
虽然状态数据量很大时我们推荐使用增量快照,但这并不是默认的快照机制,您需要通过下述配置手动开启该功能:
- 在
flink-conf.yaml
中设置:state.backend.incremental: true
或者 - 在代码中按照右侧方式配置(来覆盖默认配置):
EmbeddedRocksDBStateBackend backend = new EmbeddedRocksDBStateBackend(true);
需要注意的是,一旦启用了增量快照,网页上展示的 Checkpointed Data Size
只代表增量上传的数据量,而不是一次快照的完整数据量。
内存管理 #
Flink 致力于控制整个进程的内存消耗,以确保 Flink 任务管理器(TaskManager)有良好的内存使用,从而既不会在容器(Docker/Kubernetes, Yarn等)环境中由于内存超用被杀掉,也不会因为内存利用率过低导致不必要的数据落盘或是缓存命中率下降,致使性能下降。
为了达到上述目标,Flink 默认将 RocksDB 的可用内存配置为任务管理器的单槽(per-slot)托管内存量。这将为大多数应用程序提供良好的开箱即用体验,即大多数应用程序不需要调整 RocksDB 配置,简单的增加 Flink 的托管内存即可改善内存相关性能问题。
当然,您也可以选择不使用 Flink 自带的内存管理,而是手动为 RocksDB 的每个列族(ColumnFamily)分配内存(每个算子的每个 state 都对应一个列族)。这为专业用户提供了对 RocksDB 进行更细粒度控制的途径,但同时也意味着用户需要自行保证总内存消耗不会超过(尤其是容器)环境的限制。请参阅 large state tuning 了解有关大状态数据性能调优的一些指导原则。
RocksDB 使用托管内存
这个功能默认打开,并且可以通过 state.backend.rocksdb.memory.managed
配置项控制。
Flink 并不直接控制 RocksDB 的 native 内存分配,而是通过配置 RocksDB 来确保其使用的内存正好与 Flink 的托管内存预算相同。这是在任务槽(per-slot)级别上完成的(托管内存以任务槽为粒度计算)。
为了设置 RocksDB 实例的总内存使用量,Flink 对同一个任务槽上的所有 RocksDB 实例使用共享的 cache 以及 write buffer manager。 共享 cache 将对 RocksDB 中内存消耗的三个主要来源(块缓存、索引和bloom过滤器、MemTables)设置上限。
Flink还提供了两个参数来控制写路径(MemTable)和读路径(索引及过滤器,读缓存)之间的内存分配。当您看到 RocksDB 由于缺少写缓冲内存(频繁刷新)或读缓存未命中而性能不佳时,可以使用这些参数调整读写间的内存分配。
state.backend.rocksdb.memory.write-buffer-ratio
,默认值0.5
,即 50% 的给定内存会分配给写缓冲区使用。state.backend.rocksdb.memory.high-prio-pool-ratio
,默认值0.1
,即 10% 的 block cache 内存会优先分配给索引及过滤器。 我们强烈建议不要将此值设置为零,以防止索引和过滤器被频繁踢出缓存而导致性能问题。此外,我们默认将L0级的过滤器和索引将被固定到缓存中以提高性能,更多详细信息请参阅 RocksDB 文档。
注意 上述机制开启时将覆盖用户在 PredefinedOptions
和 RocksDBOptionsFactory
中对 block cache 和 write buffer 进行的配置。
注意 仅面向专业用户:若要手动控制内存,可以将 state.backend.rocksdb.memory.managed
设置为 false
,并通过 ColumnFamilyOptions
配置 RocksDB。
或者可以复用上述 cache/write-buffer-manager 机制,但将内存大小设置为与 Flink 的托管内存大小无关的固定大小(通过 state.backend.rocksdb.memory.fixed-per-slot
/state.backend.rocksdb.memory.fixed-per-tm
选项)。
注意在这两种情况下,用户都需要确保在 JVM 之外有足够的内存可供 RocksDB 使用。
计时器(内存 vs. RocksDB) #
计时器(Timer)用于安排稍后的操作(基于事件时间或处理时间),例如触发窗口或回调 ProcessFunction
。
当选择 RocksDB 作为 State Backend 时,默认情况下计时器也存储在 RocksDB 中。这是一种健壮且可扩展的方式,允许应用程序使用很多个计时器。另一方面,在 RocksDB 中维护计时器会有一定的成本,因此 Flink 也提供了将计时器存储在 JVM 堆上而使用 RocksDB 存储其他状态的选项。当计时器数量较少时,基于堆的计时器可以有更好的性能。
您可以通过将 state.backend.rocksdb.timer-service.factory
配置项设置为 heap
(而不是默认的 rocksdb
)来将计时器存储在堆上。
注意 在 RocksDB state backend 中使用基于堆的计时器的组合当前不支持计时器状态的异步快照。其他状态(如 keyed state)可以被异步快照。
开启 RocksDB 原生监控指标 #
您可以选择使用 Flink 的监控指标系统来汇报 RocksDB 的原生指标,并且可以选择性的指定特定指标进行汇报。 请参阅 configuration docs 了解更多详情。
注意: 启用 RocksDB 的原生指标可能会对应用程序的性能产生负面影响。
列族(ColumnFamily)级别的预定义选项 #
注意 在引入 RocksDB 使用托管内存 功能后,此机制应限于在专家调优或故障处理中使用。
使用预定义选项,用户可以在每个 RocksDB 列族上应用一些预定义的配置,例如配置内存使用、线程、Compaction 设置等。目前每个算子的每个状态都在 RocksDB 中有专门的一个列族存储。
有两种方法可以选择要应用的预定义选项:
- 通过
state.backend.rocksdb.predefined-options
配置项将选项名称设置进flink-conf.yaml
。 - 通过程序设置:
EmbeddedRocksDBStateBackend.setPredefinedOptions(PredefinedOptions.SPINNING_DISK_OPTIMIZED_HIGH_MEM)
。
该选项的默认值是 DEFAULT
,对应 PredefinedOptions.DEFAULT
。
从 flink-conf.yaml 中读取列族选项 #
RocksDB State Backend 会将 这里定义 的所有配置项全部加载。 因此您可以简单的通过关闭 RocksDB 使用托管内存的功能并将需要的设置选项加入配置文件来配置底层的列族选项。
通过 RocksDBOptionsFactory 配置 RocksDB 选项 #
注意 在引入 RocksDB 使用托管内存 功能后,此机制应限于在专家调优或故障处理中使用。
您也可以通过配置一个 RocksDBOptionsFactory
来手动控制 RocksDB 的选项。此机制使您可以对列族的设置进行细粒度控制,例如内存使用、线程、Compaction 设置等。目前每个算子的每个状态都在 RocksDB 中有专门的一个列族存储。
有两种方法可以将 RocksDBOptionsFactory
传递给 RocksDB State Backend:
-
通过
state.backend.rocksdb.options-factory
选项将工厂实现类的名称设置到flink-conf.yaml
。 -
通过程序设置,例如
EmbeddedRocksDBStateBackend.setRocksDBOptions(new MyOptionsFactory());
。
注意 通过程序设置的 RocksDBOptionsFactory
将覆盖 flink-conf.yaml
配置文件的设置,且 RocksDBOptionsFactory
设置的优先级高于预定义选项(PredefinedOptions
)。
注意 RocksDB是一个本地库,它直接从进程分配内存,
而不是从JVM分配内存。分配给 RocksDB 的任何内存都必须被考虑在内,通常需要将这部分内存从任务管理器(TaskManager
)的JVM堆中减去。
不这样做可能会导致JVM进程由于分配的内存超过申请值而被 YARN 等资源管理框架终止。
下面是自定义 ConfigurableRocksDBOptionsFactory
的一个示例 (开发完成后,请将您的实现类全名设置到 state.backend.rocksdb.options-factory
).
public class MyOptionsFactory implements ConfigurableRocksDBOptionsFactory {
public static final ConfigOption<Integer> BLOCK_RESTART_INTERVAL = ConfigOptions
.key("my.custom.rocksdb.block.restart-interval")
.intType()
.defaultValue(16)
.withDescription(
" Block restart interval. RocksDB has default block restart interval as 16. ");
private int blockRestartInterval = BLOCK_RESTART_INTERVAL.defaultValue();
@Override
public DBOptions createDBOptions(DBOptions currentOptions,
Collection<AutoCloseable> handlesToClose) {
return currentOptions
.setIncreaseParallelism(4)
.setUseFsync(false);
}
@Override
public ColumnFamilyOptions createColumnOptions(ColumnFamilyOptions currentOptions,
Collection<AutoCloseable> handlesToClose) {
return currentOptions.setTableFormatConfig(
new BlockBasedTableConfig()
.setBlockRestartInterval(blockRestartInterval));
}
@Override
public RocksDBOptionsFactory configure(ReadableConfig configuration) {
this.blockRestartInterval = configuration.get(BLOCK_RESTART_INTERVAL);
return this;
}
}
Python API 中尚不支持该特性。
开启 Changelog #
该功能处于实验状态。
开启 Changelog 可能会给您的应用带来性能损失。(见下文)
介绍 #
Changelog 是一项旨在减少 checkpointing 时间的功能,因此也可以减少 exactly-once 模式下的端到端延迟。
一般情况下 checkpoint 的持续时间受如下因素影响:
-
Barrier 到达和对齐时间,可以通过 Unaligned checkpoints 和 Buffer debloating 解决。
-
快照制作时间(所谓同步阶段), 可以通过异步快照解决(如上文所述)。
-
快照上传时间(异步阶段)。
可以用增量 checkpoints 来减少上传时间。但是,大多数支持增量checkpoint的状态后端会定期执行合并类型的操作,这会导致除了新的变更之外还要重新上传旧状态。在大规模部署中,每次 checkpoint 中至少有一个 task 上传大量数据的可能性往往非常高。
开启 Changelog 功能之后,Flink 会不断上传状态变更并形成 changelog。创建 checkpoint 时,只有 changelog 中的相关部分需要上传。而配置的状态后端则会定期在后台进行快照,快照成功上传后,相关的changelog 将会被截断。
基于此,异步阶段的持续时间减少(另外因为不需要将数据刷新到磁盘,同步阶段持续时间也减少了),特别是长尾延迟得到了改善。
但是,资源使用会变得更高:
- 将会在 DFS 上创建更多文件
- 将可能在 DFS 上残留更多文件(这将在 FLINK-25511 和 FLINK-25512 之后的新版本中被解决)
- 将使用更多的 IO 带宽用来上传状态变更
- 将使用更多 CPU 资源来序列化状态变更
- Task Managers 将会使用更多内存来缓存状态变更
另一项需要考虑的事情是恢复时间。取决于 state.backend.changelog.periodic-materialize.interval
的设置,changelog 可能会变得冗长,因此重放会花费更多时间。即使这样,恢复时间加上 checkpoint 持续时间仍然可能低于不开启 changelog 功能的时间,从而在故障恢复的情况下也能提供更低的端到端延迟。当然,取决于上述时间的实际比例,有效恢复时间也有可能会增加。
有关更多详细信息,请参阅 FLIP-158。
安装 #
标准的 Flink 发行版包含 Changelog 所需要的 JAR包。
请确保添加所需的文件系统插件。
配置 #
这是 YAML 中的示例配置:
state.backend.changelog.enabled: true
state.backend.changelog.storage: filesystem # 当前只支持 filesystem 和 memory(仅供测试用)
dstl.dfs.base-path: s3://<bucket-name> # 类似于 state.checkpoints.dir
请将如下配置保持默认值 (参见限制):
execution.checkpointing.max-concurrent-checkpoints: 1
有关其他配置选项,请参阅配置部分。
也可以通过编程方式为每个作业开启或关闭 Changelog:
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.enableChangelogStateBackend(true);
val env = StreamExecutionEnvironment.getExecutionEnvironment()
env.enableChangelogStateBackend(true)
env = StreamExecutionEnvironment.get_execution_environment()
env.enable_changelog_statebackend(true)
监控 #
此处列出了可用的指标。
如果 task 因写状态变更而被反压,他将在 UI 中被显示为忙碌(红色)。
升级现有作业 #
开启 Changelog
支持从 savepoint 或 checkpoint 恢复:
- 给定一个没有开启 Changelog 的作业
- 创建一个 savepoint 或一个 checkpoint
- 更改配置(开启 Changelog)
- 从创建的 snapshot 恢复
关闭 Changelog
支持从 savepoint 或 checkpoint 恢复:
- 给定一个开启 Changelog 的作业
- 创建一个 savepoint 或一个 checkpoint
- 更改配置(关闭 Changelog)
- 从创建的 snapshot 恢复
限制 #
- 最多同时创建一个 checkpoint
- 到 Flink 1.15 为止, 只有
filesystem
changelog 实现可用 - 尚不支持 NO_CLAIM 模式
自旧版本迁移 #
从 Flink 1.13 版本开始,社区改进了 state backend 的公开类,进而帮助用户更好理解本地状态存储和 checkpoint 存储的区分。 这个变化并不会影响 state backend 和 checkpointing 过程的运行时实现和机制,仅仅是为了更好地传达设计意图。 用户可以将现有作业迁移到新的 API,同时不会损失原有 state。
MemoryStateBackend #
旧版本的 MemoryStateBackend
等价于使用 HashMapStateBackend
和 JobManagerCheckpointStorage
。
flink-conf.yaml
配置
#
state.backend: hashmap
# Optional, Flink will automatically default to JobManagerCheckpointStorage
# when no checkpoint directory is specified.
state.checkpoint-storage: jobmanager
代码配置 #
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.setStateBackend(new HashMapStateBackend());
env.getCheckpointConfig().setCheckpointStorage(new JobManagerCheckpointStorage());
val env = StreamExecutionEnvironment.getExecutionEnvironment
env.setStateBackend(new HashMapStateBackend)
env.getCheckpointConfig().setCheckpointStorage(new JobManagerCheckpointStorage)
env = StreamExecutionEnvironment.get_execution_environment()
env.set_state_backend(HashMapStateBackend())
env.get_checkpoint_config().set_checkpoint_storage(JobManagerCheckpointStorage())
FsStateBackend #
旧版本的 FsStateBackend
等价于使用 HashMapStateBackend
和 FileSystemCheckpointStorage
。
flink-conf.yaml
配置
#
state.backend: hashmap
state.checkpoints.dir: file:///checkpoint-dir/
# Optional, Flink will automatically default to FileSystemCheckpointStorage
# when a checkpoint directory is specified.
state.checkpoint-storage: filesystem
代码配置 #
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.setStateBackend(new HashMapStateBackend());
env.getCheckpointConfig().setCheckpointStorage("file:///checkpoint-dir");
// Advanced FsStateBackend configurations, such as write buffer size
// can be set by manually instantiating a FileSystemCheckpointStorage object.
env.getCheckpointConfig().setCheckpointStorage(new FileSystemCheckpointStorage("file:///checkpoint-dir"));
val env = StreamExecutionEnvironment.getExecutionEnvironment
env.setStateBackend(new HashMapStateBackend)
env.getCheckpointConfig().setCheckpointStorage("file:///checkpoint-dir")
// Advanced FsStateBackend configurations, such as write buffer size
// can be set by using manually instantiating a FileSystemCheckpointStorage object.
env.getCheckpointConfig().setCheckpointStorage(new FileSystemCheckpointStorage("file:///checkpoint-dir"))
env = StreamExecutionEnvironment.get_execution_environment()
env.set_state_backend(HashMapStateBackend())
env.get_checkpoint_config().set_checkpoint_storage_dir("file:///checkpoint-dir")
# Advanced FsStateBackend configurations, such as write buffer size
# can be set by manually instantiating a FileSystemCheckpointStorage object.
env.get_checkpoint_config().set_checkpoint_storage(FileSystemCheckpointStorage("file:///checkpoint-dir"))
RocksDBStateBackend #
旧版本的 RocksDBStateBackend
等价于使用 EmbeddedRocksDBStateBackend
和 FileSystemCheckpointStorage
.
flink-conf.yaml
配置
#
state.backend: rocksdb
state.checkpoints.dir: file:///checkpoint-dir/
# Optional, Flink will automatically default to FileSystemCheckpointStorage
# when a checkpoint directory is specified.
state.checkpoint-storage: filesystem
代码配置 #
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.setStateBackend(new EmbeddedRocksDBStateBackend());
env.getCheckpointConfig().setCheckpointStorage("file:///checkpoint-dir");
// If you manually passed FsStateBackend into the RocksDBStateBackend constructor
// to specify advanced checkpointing configurations such as write buffer size,
// you can achieve the same results by using manually instantiating a FileSystemCheckpointStorage object.
env.getCheckpointConfig().setCheckpointStorage(new FileSystemCheckpointStorage("file:///checkpoint-dir"));
val env = StreamExecutionEnvironment.getExecutionEnvironment
env.setStateBackend(new EmbeddedRocksDBStateBackend)
env.getCheckpointConfig().setCheckpointStorage("file:///checkpoint-dir")
// If you manually passed FsStateBackend into the RocksDBStateBackend constructor
// to specify advanced checkpointing configurations such as write buffer size,
// you can achieve the same results by using manually instantiating a FileSystemCheckpointStorage object.
env.getCheckpointConfig().setCheckpointStorage(new FileSystemCheckpointStorage("file:///checkpoint-dir"))
env = StreamExecutionEnvironment.get_execution_environment()
env.set_state_backend(EmbeddedRocksDBStateBackend())
env.get_checkpoint_config().set_checkpoint_storage_dir("file:///checkpoint-dir")
# If you manually passed FsStateBackend into the RocksDBStateBackend constructor
# to specify advanced checkpointing configurations such as write buffer size,
# you can achieve the same results by using manually instantiating a FileSystemCheckpointStorage object.
env.get_checkpoint_config().set_checkpoint_storage(FileSystemCheckpointStorage("file:///checkpoint-dir"))