User-defined Sources & Sinks #
Dynamic tables are the core concept of Flink’s Table & SQL API for processing both bounded and unbounded data in a unified fashion.
Because dynamic tables are only a logical concept, Flink does not own the data itself. Instead, the content of a dynamic table is stored in external systems (such as databases, key-value stores, message queues) or files.
Dynamic sources and dynamic sinks can be used to read and write data from and to an external system. In the documentation, sources and sinks are often summarized under the term connector.
Flink provides pre-defined connectors for Kafka, Hive, and different file systems. See the connector section for more information about built-in table sources and sinks.
This page focuses on how to develop a custom, user-defined connector.
从 Flink v1.16 开始, TableEnvironment 引入了一个用户类加载器,以在 table 程序、SQL Client、SQL Gateway 中保持一致的类加载行为。该类加载器会统一管理所有的用户 jar 包,包括通过ADD JAR
或CREATE FUNCTION .. USING JAR ..
添加的 jar 资源。 在用户自定义连接器中,应该将Thread.currentThread().getContextClassLoader()
替换成该用户类加载器去加载类。否则,可能会发生ClassNotFoundException
的异常。该用户类加载器可以通过DynamicTableFactory.Context
获得。
概述 #
In many cases, implementers don’t need to create a new connector from scratch but would like to slightly modify existing connectors or hook into the existing stack. In other cases, implementers would like to create specialized connectors.
This section helps for both kinds of use cases. It explains the general architecture of table connectors from pure declaration in the API to runtime code that will be executed on the cluster.
The filled arrows show how objects are transformed to other objects from one stage to the next stage during the translation process.
Metadata #
Both Table API and SQL are declarative APIs. This includes the declaration of tables. Thus, executing
a CREATE TABLE
statement results in updated metadata in the target catalog.
For most catalog implementations, physical data in the external system is not modified for such an
operation. Connector-specific dependencies don’t have to be present in the classpath yet. The options declared
in the WITH
clause are neither validated nor otherwise interpreted.
The metadata for dynamic tables (created via DDL or provided by the catalog) is represented as instances
of CatalogTable
. A table name will be resolved into a CatalogTable
internally when necessary.
Planning #
When it comes to planning and optimization of the table program, a CatalogTable
needs to be resolved
into a DynamicTableSource
(for reading in a SELECT
query) and DynamicTableSink
(for writing in
an INSERT INTO
statement).
DynamicTableSourceFactory
and DynamicTableSinkFactory
provide connector-specific logic for translating
the metadata of a CatalogTable
into instances of DynamicTableSource
and DynamicTableSink
. In most
of the cases, a factory’s purpose is to validate options (such as 'port' = '5022'
in the example),
configure encoding/decoding formats (if required), and create a parameterized instance of the table
connector.
By default, instances of DynamicTableSourceFactory
and DynamicTableSinkFactory
are discovered using
Java’s Service Provider Interfaces (SPI). The
connector
option (such as 'connector' = 'custom'
in the example) must correspond to a valid factory
identifier.
Although it might not be apparent in the class naming, DynamicTableSource
and DynamicTableSink
can also be seen as stateful factories that eventually produce concrete runtime implementation for reading/writing
the actual data.
The planner uses the source and sink instances to perform connector-specific bidirectional communication
until an optimal logical plan could be found. Depending on the optionally declared ability interfaces (e.g.
SupportsProjectionPushDown
or SupportsOverwrite
), the planner might apply changes to an instance and
thus mutate the produced runtime implementation.
Runtime #
Once the logical planning is complete, the planner will obtain the runtime implementation from the table
connector. Runtime logic is implemented in Flink’s core connector interfaces such as InputFormat
or SourceFunction
.
Those interfaces are grouped by another level of abstraction as subclasses of ScanRuntimeProvider
,
LookupRuntimeProvider
, and SinkRuntimeProvider
.
For example, both OutputFormatProvider
(providing org.apache.flink.api.common.io.OutputFormat
) and SinkFunctionProvider
(providing org.apache.flink.streaming.api.functions.sink.SinkFunction
) are concrete instances of SinkRuntimeProvider
that the planner can handle.
Project Configuration #
If you want to implement a custom connector or a custom format, the following dependency is usually sufficient:
pom.xml
file in your project directory and add the following in the dependencies block.
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-table-common</artifactId>
<version>1.16.2</version>
<scope>provided</scope>
</dependency>
build.gradle
file in your project directory and add the following in the dependencies block.
runtime "org.apache.flink:flink-table-common:1.16.2"
Check out Project configuration for more details.
If you want to develop a connector that needs to bridge with DataStream APIs (i.e. if you want to adapt a DataStream connector to the Table API), you need to add this dependency:
pom.xml
file in your project directory and add the following in the dependencies block.
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-table-api-java-bridge</artifactId>
<version>1.16.2</version>
<scope>provided</scope>
</dependency>
build.gradle
file in your project directory and add the following in the dependencies block.
runtime "org.apache.flink:flink-table-api-java-bridge:1.16.2"
Check out Project configuration for more details.
When developing the connector/format, we suggest shipping both a thin JAR and an uber JAR, so users can easily load the uber JAR in the SQL client or in the Flink distribution and start using it. The uber JAR should include all the third-party dependencies of the connector, excluding the table dependencies listed above.
You should not depend onflink-table-planner_2.12
in production code. With the new moduleflink-table-planner-loader
introduced in Flink 1.15, the application’s classpath will not have direct access toorg.apache.flink.table.planner
classes anymore. If you need a feature available only internally within theorg.apache.flink.table.planner
package and subpackages, please open an issue. To learn more, check out Anatomy of Table Dependencies.
扩展点 #
这一部分主要介绍扩展 Flink table connector 时可能用到的接口。
动态表的工厂类 #
在根据 catalog 与 Flink 运行时上下文信息,为某个外部存储系统配置动态表连接器时,需要用到动态表的工厂类。
比如,通过实现 org.apache.flink.table.factories.DynamicTableSourceFactory
接口完成一个工厂类,来生产 DynamicTableSource
类。
通过实现 org.apache.flink.table.factories.DynamicTableSinkFactory
接口完成一个工厂类,来生产 DynamicTableSink
类。
默认情况下,Java 的 SPI 机制会自动识别这些工厂类,同时将 connector
配置项作为工厂类的”标识符“。
在 JAR 文件中,需要将实现的工厂类路径放入到下面这个配置文件:
META-INF/services/org.apache.flink.table.factories.Factory
Flink 会对工厂类逐个进行检查,确保其“标识符”是全局唯一的,并且按照要求实现了上面提到的接口 (比如 DynamicTableSourceFactory
)。
如果必要的话,也可以在实现 catalog 时绕过上述 SPI 机制识别工厂类的过程。即在实现 catalog 接口时,在org.apache.flink.table.catalog.Catalog#getFactory
方法中直接返回工厂类的实例。
动态表的 source 端 #
按照定义,动态表是随时间变化的。
在读取动态表时,表中数据可以是以下情况之一:
- changelog 流(支持有界或无界),在 changelog 流结束前,所有的改变都会被源源不断地消费,由
ScanTableSource
接口表示。 - 处于一直变换或数据量很大的外部表,其中的数据一般不会被全量读取,除非是在查询某个值时,由
LookupTableSource
接口表示。
一个类可以同时实现这两个接口,Planner 会根据查询的 Query 选择相应接口中的方法。
Scan Table Source #
在运行期间,ScanTableSource
接口会按行扫描外部存储系统中所有数据。
被扫描的数据可以是 insert、update、delete 三种操作类型,因此数据源可以用作读取 changelog (支持有界或无界)。在运行时,返回的 changelog mode 表示 Planner 要处理的操作类型。
在常规批处理的场景下,数据源可以处理 insert-only 操作类型的有界数据流。
在常规流处理的场景下,数据源可以处理 insert-only 操作类型的无界数据流。
在变更日志数据捕获(即 CDC)场景下,数据源可以处理 insert、update、delete 操作类型的有界或无界数据流。
可以实现更多的功能接口来优化数据源,比如实现 SupportsProjectionPushDown
接口,这样在运行时在 source 端就处理数据。在 org.apache.flink.table.connector.source.abilities
包下可以找到各种功能接口,更多内容可查看 source abilities table。
实现 ScanTableSource
接口的类必须能够生产 Flink 内部数据结构,因此每条记录都会按照org.apache.flink.table.data.RowData
的方式进行处理。Flink 运行时提供了转换机制保证 source 端可以处理常见的数据结构,并且在最后进行转换。
Lookup Table Source #
在运行期间,LookupTableSource
接口会在外部存储系统中按照 key 进行查找。
相比于ScanTableSource
,LookupTableSource
接口不会全量读取表中数据,只会在需要时向外部存储(其中的数据有可能会一直变化)发起查询请求,惰性地获取数据。
同时相较于ScanTableSource
,LookupTableSource
接口目前只支持处理 insert-only 数据流。
暂时不支持扩展功能接口,可查看 org.apache.flink.table.connector.source.LookupTableSource
中的文档了解更多。
LookupTableSource
的实现方法可以是 TableFunction
或者 AsyncTableFunction
,Flink运行时会根据要查询的 key 值,调用这个实现方法进行查询。
source 端的功能接口 #
接口 | 描述 |
---|---|
SupportsFilterPushDown | 支持将过滤条件下推到 DynamicTableSource 。为了更高效处理数据,source 端会将过滤条件下推,以便在数据产生时就处理。 |
SupportsLimitPushDown | 支持将 limit(期望生产的最大数据条数)下推到 DynamicTableSource 。 |
SupportsPartitionPushDown | 支持将可用的分区信息提供给 planner 并且将分区信息下推到 DynamicTableSource 。在运行时为了更高效处理数据,source 端会只从提供的分区列表中读取数据。 |
SupportsProjectionPushDown | 支持将查询列(可嵌套)下推到 DynamicTableSource 。为了更高效处理数据,source 端会将查询列下推,以便在数据产生时就处理。如果 source 端同时实现了 SupportsReadingMetadata ,那么 source 端也会读取相对应列的元数据信息。
|
SupportsReadingMetadata | 支持通过 DynamicTableSource 读取列的元数据信息。source 端会在生产数据行时,在最后添加相应的元数据信息,其中包括元数据的格式信息。 |
SupportsWatermarkPushDown | 支持将水印策略下推到 DynamicTableSource 。水印策略可以通过工厂模式或 Builder 模式来构建,用于抽取时间戳以及水印的生成。在运行时,source 端内部的水印生成器会为每个分区生产水印。 |
SupportsSourceWatermark | 支持使用 ScanTableSource 中提供的水印策略。当使用 CREATE TABLE DDL 时,<可以使用>可以使用> SOURCE_WATERMARK() 来告诉 planner 调用这个接口中的水印策略方法。 |
注意上述接口当前只适用于 ScanTableSource
,不适用于LookupTableSource
。
动态表的 sink 端 #
按照定义,动态表是随时间变化的。
当写入一个动态表时,数据流可以被看作是 changelog (有界或无界都可),在 changelog 结束前,所有的变更都会被持续写入。在运行时,返回的 changelog mode 会显示 sink 端支持的数据操作类型。
在常规批处理的场景下,sink 端可以持续接收 insert-only 操作类型的数据,并写入到有界数据流中。
在常规流处理的场景下,sink 端可以持续接收 insert-only 操作类型的数据,并写入到无界数据流中。
在变更日志数据捕获(即 CDC)场景下,sink 端可以将 insert、update、delete 操作类型的数据写入有界或无界数据流。
可以实现 SupportsOverwrite
等功能接口,在 sink 端处理数据。可以在 org.apache.flink.table.connector.sink.abilities
包下找到各种功能接口,更多内容可查看sink abilities table。
实现 DynamicTableSink
接口的类必须能够处理 Flink 内部数据结构,因此每条记录都会按照 org.apache.flink.table.data.RowData
的方式进行处理。Flink 运行时提供了转换机制来保证在最开始进行数据类型转换,以便 sink 端可以处理常见的数据结构。
sink 端的功能接口 #
接口 | 描述 |
---|---|
SupportsOverwrite | 支持 DynamicTableSink 覆盖写入已存在的数据。默认情况下,如果不实现这个接口,在使用 INSERT OVERWRITE SQL 语法时,已存在的表或分区不会被覆盖写入 |
SupportsPartitioning | 支持 DynamicTableSink 写入分区数据。 |
SupportsWritingMetadata | 支持 DynamicTableSink 写入元数据列。Sink 端会在消费数据行时,在最后接受相应的元数据信息并进行持久化,其中包括元数据的格式信息。 |
编码与解码 #
有的表连接器支持 K/V 型数据的各类编码与解码方式。
编码与解码格式器的工作原理类似于 DynamicTableSourceFactory -> DynamicTableSource -> ScanRuntimeProvider
,其中工厂类负责传参,source 负责提供处理逻辑。
由于编码与解码格式器处于不同的代码模块,类似于table factories,它们都需要通过 Java 的 SPI 机制自动识别。为了找到格式器的工厂类,动态表工厂类会根据该格式器工厂类的”标识符“来搜索,并确认其实现了连接器相关的基类。
比如,Kafka 的 source 端需要一个实现了 DeserializationSchema
接口的类,用来为数据解码。那么 Kafka 的 source 端工厂类会使用配置项 value.format
的值来发现 DeserializationFormatFactory
。
目前,支持使用如下格式器工厂类:
org.apache.flink.table.factories.DeserializationFormatFactory
org.apache.flink.table.factories.SerializationFormatFactory
格式器工厂类再将配置传参给 EncodingFormat
或 DecodingFormat
。这些接口是另外一种工厂类,用于为所给的数据类型生成指定的格式器。
例如 Kafka 的 source 端工厂类 DeserializationFormatFactory
会为 Kafka 的 source 端返回 EncodingFormat<DeserializationSchema>
全栈实例 #
这一部分介绍如何实现一个 CDC 场景下 scan table 类型的 source 端,同时支持自定义解码器下面的例子中使用了上面提到的所有内容,作为一个参考。
这个例子展示了:
- 创建工厂类实现配置项的解析与校验
- 实现表连接器
- 实现与发现自定义的编码/解码格式器
- 其他工具类,数据结构的转换器以及一个
FactoryUtil
类。
source 端通过实现一个单线程的 SourceFunction
接口,绑定一个 socket 端口来监听字节流字节流会被解码为一行一行的数据,解码器是可插拔的。解码方式是将第一列数据作为这条数据的操作类型。
我们使用上文提到的一系列接口来构建这个例子,并通过如下这个 DDL 来创建表:
CREATE TABLE UserScores (name STRING, score INT)
WITH (
'connector' = 'socket',
'hostname' = 'localhost',
'port' = '9999',
'byte-delimiter' = '10',
'format' = 'changelog-csv',
'changelog-csv.column-delimiter' = '|'
);
由于解码时支持 CDC 语义,我们可以在运行时更新数据并且创建一个更新视图,并源源不断地处理变更数据:
SELECT name, SUM(score) FROM UserScores GROUP BY name;
在命令行中输入如下指令,并输入数据:
> nc -lk 9999
INSERT|Alice|12
INSERT|Bob|5
DELETE|Alice|12
INSERT|Alice|18
工厂类 #
这一部分主要介绍如何从 catalog 中解析元数据信息来构建表连接器的实例。
下面的工厂类都以添加到 META-INF/services
目录下。
SocketDynamicTableFactory
SocketDynamicTableFactory
根据 catalog 表信息,生成表的 source 端。由于 source 端需要进行对数据解码,我们通过 FactoryUtil
类来找到解码器。
import org.apache.flink.api.common.serialization.DeserializationSchema;
import org.apache.flink.configuration.ConfigOption;
import org.apache.flink.configuration.ConfigOptions;
import org.apache.flink.configuration.ReadableConfig;
import org.apache.flink.table.connector.format.DecodingFormat;
import org.apache.flink.table.connector.source.DynamicTableSource;
import org.apache.flink.table.data.RowData;
import org.apache.flink.table.factories.DeserializationFormatFactory;
import org.apache.flink.table.factories.DynamicTableSourceFactory;
import org.apache.flink.table.factories.FactoryUtil;
import org.apache.flink.table.types.DataType;
public class SocketDynamicTableFactory implements DynamicTableSourceFactory {
// 定义所有配置项
public static final ConfigOption<String> HOSTNAME = ConfigOptions.key("hostname")
.stringType()
.noDefaultValue();
public static final ConfigOption<Integer> PORT = ConfigOptions.key("port")
.intType()
.noDefaultValue();
public static final ConfigOption<Integer> BYTE_DELIMITER = ConfigOptions.key("byte-delimiter")
.intType()
.defaultValue(10); // 等同于 '\n'
@Override
public String factoryIdentifier() {
return "socket"; // 用于匹配: `connector = '...'`
}
@Override
public Set<ConfigOption<?>> requiredOptions() {
final Set<ConfigOption<?>> options = new HashSet<>();
options.add(HOSTNAME);
options.add(PORT);
options.add(FactoryUtil.FORMAT); // 解码的格式器使用预先定义的配置项
return options;
}
@Override
public Set<ConfigOption<?>> optionalOptions() {
final Set<ConfigOption<?>> options = new HashSet<>();
options.add(BYTE_DELIMITER);
return options;
}
@Override
public DynamicTableSource createDynamicTableSource(Context context) {
// 使用提供的工具类或实现你自己的逻辑进行校验
final FactoryUtil.TableFactoryHelper helper = FactoryUtil.createTableFactoryHelper(this, context);
// 找到合适的解码器
final DecodingFormat<DeserializationSchema<RowData>> decodingFormat = helper.discoverDecodingFormat(
DeserializationFormatFactory.class,
FactoryUtil.FORMAT);
// 校验所有的配置项
helper.validate();
// 获取校验完的配置项
final ReadableConfig options = helper.getOptions();
final String hostname = options.get(HOSTNAME);
final int port = options.get(PORT);
final byte byteDelimiter = (byte) (int) options.get(BYTE_DELIMITER);
// 从 catalog 中抽取要生产的数据类型 (除了需要计算的列)
final DataType producedDataType =
context.getCatalogTable().getResolvedSchema().toPhysicalRowDataType();
// 创建并返回动态表 source
return new SocketDynamicTableSource(hostname, port, byteDelimiter, decodingFormat, producedDataType);
}
}
ChangelogCsvFormatFactory
ChangelogCsvFormatFactory
根据解码器相关的配置构建解码器。SocketDynamicTableFactory
中的 FactoryUtil
会适配好配置项中的键,并处理 changelog-csv.column-delimiter
这样带有前缀的键。
由于这个工厂类实现了 DeserializationFormatFactory
接口,它也可以为其他连接器(比如 Kafka 连接器)提供反序列化的解码支持。
import org.apache.flink.api.common.serialization.DeserializationSchema;
import org.apache.flink.configuration.ConfigOption;
import org.apache.flink.configuration.ConfigOptions;
import org.apache.flink.configuration.ReadableConfig;
import org.apache.flink.table.connector.format.DecodingFormat;
import org.apache.flink.table.data.RowData;
import org.apache.flink.table.factories.FactoryUtil;
import org.apache.flink.table.factories.DeserializationFormatFactory;
import org.apache.flink.table.factories.DynamicTableFactory;
public class ChangelogCsvFormatFactory implements DeserializationFormatFactory {
// 定义所有配置项
public static final ConfigOption<String> COLUMN_DELIMITER = ConfigOptions.key("column-delimiter")
.stringType()
.defaultValue("|");
@Override
public String factoryIdentifier() {
return "changelog-csv";
}
@Override
public Set<ConfigOption<?>> requiredOptions() {
return Collections.emptySet();
}
@Override
public Set<ConfigOption<?>> optionalOptions() {
final Set<ConfigOption<?>> options = new HashSet<>();
options.add(COLUMN_DELIMITER);
return options;
}
@Override
public DecodingFormat<DeserializationSchema<RowData>> createDecodingFormat(
DynamicTableFactory.Context context,
ReadableConfig formatOptions) {
// 使用提供的工具类或实现你自己的逻辑进行校验
FactoryUtil.validateFactoryOptions(this, formatOptions);
// 获取校验完的配置项
final String columnDelimiter = formatOptions.get(COLUMN_DELIMITER);
// 创建并返回解码器
return new ChangelogCsvFormat(columnDelimiter);
}
}
source 端与解码 #
这部分主要介绍在计划阶段的 source 与 解码器实例,是如何转化为运行时实例,以便于提交给集群。
SocketDynamicTableSource
SocketDynamicTableSource
在计划阶段中会被用到。在我们的例子中,我们不会实现任何功能接口,因此,getScanRuntimeProvider(...)
方法中就是主要逻辑:对 SourceFunction
以及其用到的 DeserializationSchema
进行实例化,作为运行时的实例。两个实例都被参数化来返回内部数据结构(比如 RowData
)。
import org.apache.flink.api.common.serialization.DeserializationSchema;
import org.apache.flink.streaming.api.functions.source.SourceFunction;
import org.apache.flink.table.connector.ChangelogMode;
import org.apache.flink.table.connector.format.DecodingFormat;
import org.apache.flink.table.connector.source.DynamicTableSource;
import org.apache.flink.table.connector.source.ScanTableSource;
import org.apache.flink.table.connector.source.SourceFunctionProvider;
import org.apache.flink.table.data.RowData;
import org.apache.flink.table.types.DataType;
public class SocketDynamicTableSource implements ScanTableSource {
private final String hostname;
private final int port;
private final byte byteDelimiter;
private final DecodingFormat<DeserializationSchema<RowData>> decodingFormat;
private final DataType producedDataType;
public SocketDynamicTableSource(
String hostname,
int port,
byte byteDelimiter,
DecodingFormat<DeserializationSchema<RowData>> decodingFormat,
DataType producedDataType) {
this.hostname = hostname;
this.port = port;
this.byteDelimiter = byteDelimiter;
this.decodingFormat = decodingFormat;
this.producedDataType = producedDataType;
}
@Override
public ChangelogMode getChangelogMode() {
// 在我们的例子中,由解码器来决定 changelog 支持的模式
// 但是在 source 端指定也可以
return decodingFormat.getChangelogMode();
}
@Override
public ScanRuntimeProvider getScanRuntimeProvider(ScanContext runtimeProviderContext) {
// 创建运行时类用于提交给集群
final DeserializationSchema<RowData> deserializer = decodingFormat.createRuntimeDecoder(
runtimeProviderContext,
producedDataType);
final SourceFunction<RowData> sourceFunction = new SocketSourceFunction(
hostname,
port,
byteDelimiter,
deserializer);
return SourceFunctionProvider.of(sourceFunction, false);
}
@Override
public DynamicTableSource copy() {
return new SocketDynamicTableSource(hostname, port, byteDelimiter, decodingFormat, producedDataType);
}
@Override
public String asSummaryString() {
return "Socket Table Source";
}
}
ChangelogCsvFormat
ChangelogCsvFormat
在运行时使用 DeserializationSchema
为数据进行解码,这里支持处理 INSERT
、DELETE
变更类型的数据。
import org.apache.flink.api.common.serialization.DeserializationSchema;
import org.apache.flink.api.common.typeinfo.TypeInformation;
import org.apache.flink.table.connector.ChangelogMode;
import org.apache.flink.table.connector.format.DecodingFormat;
import org.apache.flink.table.connector.source.DynamicTableSource;
import org.apache.flink.table.connector.source.DynamicTableSource.DataStructureConverter;
import org.apache.flink.table.data.RowData;
import org.apache.flink.table.types.DataType;
import org.apache.flink.table.types.logical.LogicalType;
import org.apache.flink.types.RowKind;
public class ChangelogCsvFormat implements DecodingFormat<DeserializationSchema<RowData>> {
private final String columnDelimiter;
public ChangelogCsvFormat(String columnDelimiter) {
this.columnDelimiter = columnDelimiter;
}
@Override
@SuppressWarnings("unchecked")
public DeserializationSchema<RowData> createRuntimeDecoder(
DynamicTableSource.Context context,
DataType producedDataType) {
// 为 DeserializationSchema 创建类型信息
final TypeInformation<RowData> producedTypeInfo = (TypeInformation<RowData>) context.createTypeInformation(
producedDataType);
// DeserializationSchema 中的大多数代码无法处理内部数据结构
// 在最后为转换创建一个转换器
final DataStructureConverter converter = context.createDataStructureConverter(producedDataType);
// 在运行时,为解析过程提供逻辑类型
final List<LogicalType> parsingTypes = producedDataType.getLogicalType().getChildren();
// 创建运行时类
return new ChangelogCsvDeserializer(parsingTypes, converter, producedTypeInfo, columnDelimiter);
}
@Override
public ChangelogMode getChangelogMode() {
// 支持处理 `INSERT`、`DELETE` 变更类型的数据。
return ChangelogMode.newBuilder()
.addContainedKind(RowKind.INSERT)
.addContainedKind(RowKind.DELETE)
.build();
}
}
运行时 #
为了让例子更完整,这部分主要介绍 SourceFunction
和 DeserializationSchema
的运行逻辑。
ChangelogCsvDeserializer
ChangelogCsvDeserializer
的解析逻辑比较简单:将字节流数据解析为由 Integer
和 String
组成的 Row
类型,并附带这条数据的操作类型,最后将其转换为内部数据结构。
import org.apache.flink.api.common.serialization.DeserializationSchema;
import org.apache.flink.api.common.typeinfo.TypeInformation;
import org.apache.flink.table.connector.RuntimeConverter.Context;
import org.apache.flink.table.connector.source.DynamicTableSource.DataStructureConverter;
import org.apache.flink.table.data.RowData;
import org.apache.flink.table.types.logical.LogicalType;
import org.apache.flink.table.types.logical.LogicalTypeRoot;
import org.apache.flink.types.Row;
import org.apache.flink.types.RowKind;
public class ChangelogCsvDeserializer implements DeserializationSchema<RowData> {
private final List<LogicalType> parsingTypes;
private final DataStructureConverter converter;
private final TypeInformation<RowData> producedTypeInfo;
private final String columnDelimiter;
public ChangelogCsvDeserializer(
List<LogicalType> parsingTypes,
DataStructureConverter converter,
TypeInformation<RowData> producedTypeInfo,
String columnDelimiter) {
this.parsingTypes = parsingTypes;
this.converter = converter;
this.producedTypeInfo = producedTypeInfo;
this.columnDelimiter = columnDelimiter;
}
@Override
public TypeInformation<RowData> getProducedType() {
// 为 Flink 的核心接口提供类型信息。
return producedTypeInfo;
}
@Override
public void open(InitializationContext context) {
// 转化器必须要被开启。
converter.open(Context.create(ChangelogCsvDeserializer.class.getClassLoader()));
}
@Override
public RowData deserialize(byte[] message) {
// 按列解析数据,其中一列是 changelog 标记
final String[] columns = new String(message).split(Pattern.quote(columnDelimiter));
final RowKind kind = RowKind.valueOf(columns[0]);
final Row row = new Row(kind, parsingTypes.size());
for (int i = 0; i < parsingTypes.size(); i++) {
row.setField(i, parse(parsingTypes.get(i).getTypeRoot(), columns[i + 1]));
}
// 转换为内部数据结构
return (RowData) converter.toInternal(row);
}
private static Object parse(LogicalTypeRoot root, String value) {
switch (root) {
case INTEGER:
return Integer.parseInt(value);
case VARCHAR:
return value;
default:
throw new IllegalArgumentException();
}
}
@Override
public boolean isEndOfStream(RowData nextElement) {
return false;
}
}
SocketSourceFunction
SocketSourceFunction
会监听一个 socket 端口并持续消费字节流。它会按照给定的分隔符拆分每条记录,并由插件化的 DeserializationSchema
进行解码。目前这个 source 功能只支持平行度为 1。
import org.apache.flink.api.common.serialization.DeserializationSchema;
import org.apache.flink.api.common.typeinfo.TypeInformation;
import org.apache.flink.api.java.typeutils.ResultTypeQueryable;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.functions.source.RichSourceFunction;
import org.apache.flink.table.data.RowData;
public class SocketSourceFunction extends RichSourceFunction<RowData> implements ResultTypeQueryable<RowData> {
private final String hostname;
private final int port;
private final byte byteDelimiter;
private final DeserializationSchema<RowData> deserializer;
private volatile boolean isRunning = true;
private Socket currentSocket;
public SocketSourceFunction(String hostname, int port, byte byteDelimiter, DeserializationSchema<RowData> deserializer) {
this.hostname = hostname;
this.port = port;
this.byteDelimiter = byteDelimiter;
this.deserializer = deserializer;
}
@Override
public TypeInformation<RowData> getProducedType() {
return deserializer.getProducedType();
}
@Override
public void open(Configuration parameters) throws Exception {
deserializer.open(() -> getRuntimeContext().getMetricGroup());
}
@Override
public void run(SourceContext<RowData> ctx) throws Exception {
while (isRunning) {
// 持续从 socket 消费数据
try (final Socket socket = new Socket()) {
currentSocket = socket;
socket.connect(new InetSocketAddress(hostname, port), 0);
try (InputStream stream = socket.getInputStream()) {
ByteArrayOutputStream buffer = new ByteArrayOutputStream();
int b;
while ((b = stream.read()) >= 0) {
// 持续写入 buffer 直到遇到分隔符
if (b != byteDelimiter) {
buffer.write(b);
}
// 解码并处理记录
else {
ctx.collect(deserializer.deserialize(buffer.toByteArray()));
buffer.reset();
}
}
}
} catch (Throwable t) {
t.printStackTrace(); // 打印并继续
}
Thread.sleep(1000);
}
}
@Override
public void cancel() {
isRunning = false;
try {
currentSocket.close();
} catch (Throwable t) {
// 忽略
}
}
}