Format: Serialization Schema Format: Deserialization Schema
CSV Format 允许我们基于 CSV schema 进行解析和生成 CSV 数据。 目前 CSV schema 是基于 table schema 推断而来的。
为了建立CSV格式,下列的表格提供了为项目使用自动化工具(例如Maven或者SBT)以及SQL客户端使用SQL JAR包的依赖信息。
Maven依赖 | SQL 客户端 JAR |
---|---|
flink-csv |
内置 |
以下是一个使用 Kafka 连接器和 CSV 格式创建表的示例。
参数 | 是否必选 | 默认值 | 类型 | 描述 |
---|---|---|---|---|
format |
必选 | (none) | String | 指定要使用的格式,这里应该是 'csv' 。 |
csv.field-delimiter |
可选 | , |
String | 字段分隔符 (默认',' )。 |
csv.line-delimiter |
可选 | \n |
String | 行分隔符, 默认\n 。注意 \n 和 \r 是不可见的特殊符号, 在显式的 SQL 语句中必须使用 unicode 编码。
|
csv.disable-quote-character |
可选 | false | Boolean | 是否禁止对引用的值使用引号 (默认是 false). 如果禁止,选项 'csv.quote-character' 不能设置。 |
csv.quote-character |
可选 | " |
String | 用于围住字段值的引号字符 (默认" ). |
csv.allow-comments |
可选 | false | Boolean | 是否允许忽略注释行(默认不允许),注释行以 '#' 作为起始字符。
如果允许注释行,请确保 csv.ignore-parse-errors 也开启了从而允许空行。
|
csv.ignore-parse-errors |
可选 | false | Boolean | 当解析异常时,是跳过当前字段或行,还是抛出错误失败(默认为 false,即抛出错误失败)。如果忽略字段的解析异常,则会将该字段值设置为null 。 |
csv.array-element-delimiter |
可选 | ; |
String | 分隔数组和行元素的字符串(默认';' ). |
csv.escape-character |
可选 | (none) | String | 转义字符(默认关闭). |
csv.null-literal |
可选 | (none) | String | 是否将 "null" 字符串转化为 null 值。 |
目前 CSV 的 schema 都是从 table schema 推断而来的。显式地定义 CSV schema 暂不支持。 Flink 的 CSV Format 数据使用 jackson databind API 去解析 CSV 字符串。
下面的表格列出了flink数据和CSV数据的对应关系。
Flink SQL 类型 | CSV 类型 |
---|---|
CHAR / VARCHAR / STRING |
string |
BOOLEAN |
boolean |
BINARY / VARBINARY |
string with encoding: base64 |
DECIMAL |
number |
TINYINT |
number |
SMALLINT |
number |
INT |
number |
BIGINT |
number |
FLOAT |
number |
DOUBLE |
number |
DATE |
string with format: date |
TIME |
string with format: time |
TIMESTAMP |
string with format: date-time |
INTERVAL |
number |
ARRAY |
array |
ROW |
object |