Apache Flink 使用文件系统来消费和持久化地存储数据,以处理应用结果以及容错与恢复。以下是一些最常用的文件系统:本地存储,hadoop-compatible,Amazon S3,MapR FS,OpenStack Swift FS,阿里云 OSS 和 Azure Blob Storage。
文件使用的文件系统通过其 URI Scheme 指定。例如 file:///home/user/text.txt
表示一个在本地文件系统中的文件,hdfs://namenode:50010/data/user/text.txt
表示一个在指定 HDFS 集群中的文件。
文件系统在每个进程实例化一次,然后进行缓存/池化,从而避免每次创建流时的配置开销,并强制执行特定的约束,如连接/流的限制。
Flink 原生支持本地机器上的文件系统,包括任何挂载到本地文件系统的 NFS 或 SAN 驱动器,默认即可使用,无需额外配置。本地文件可通过 file:// URI Scheme 引用。
Apache Flink 支持下列文件系统:
Amazon S3 对象存储由 flink-s3-fs-presto
和 flink-s3-fs-hadoop
两种替代实现提供支持。这两种实现都是独立的,没有依赖项。
MapR FS 文件系统适配器已在 Flink 的主发行版中通过 maprfs:// URI Scheme 支持。MapR 库需要在 classpath 中指定(例如在 lib
目录中)。
OpenStack Swift FS 由 flink-swift-fs-hadoop
支持,并通过 swift:// URI scheme 使用。该实现基于 Hadoop Project,但其是独立的,没有依赖项。
将 Flink 作为库使用时,使用该文件系统需要添加相应的 Maven 依赖项(org.apache.flink:flink-swift-fs-hadoop:1.11.6
)。
阿里云对象存储由 flink-oss-fs-hadoop
支持,并通过 oss:// URI scheme 使用。该实现基于 Hadoop Project,但其是独立的,没有依赖项。
Azure Blob Storage 由flink-azure-fs-hadoop
支持,并通过 wasb(s):// URI scheme 使用。该实现基于 Hadoop Project,但其是独立的,没有依赖项。
除 MapR FS 之外,上述文件系统可以并且需要作为插件使用。
使用外部文件系统时,在启动 Flink 之前需将对应的 JAR 文件从 opt
目录复制到 Flink 发行版 plugin
目录下的某一文件夹中,例如:
注意 文件系统的插件机制在 Flink 版本 1.9 中引入,以支持每个插件专有 Java 类加载器,并避免类隐藏机制。您仍然可以通过旧机制使用文件系统,即将对应的 JAR 文件复制到 lib
目录中,或使用您自己的实现方式,但是从版本 1.10 开始,S3 插件必须通过插件机制加载,因为这些插件不再被隐藏(版本 1.10 之后类不再被重定位),旧机制不再可用。
尽可能通过基于插件的加载机制使用支持的文件系统。未来的 Flink 版本将不再支持通过 lib
目录加载文件系统组件。
文件系统由类 org.apache.flink.core.fs.FileSystem
表示,该类定义了访问与修改文件系统中文件与对象的方法。
要添加一个新的文件系统:
org.apache.flink.core.fs.FileSystem
的子类。org.apache.flink.core.fs.FileSystemFactory
的子类。META-INF/services/org.apache.flink.core.fs.FileSystemFactory
,文件中包含文件系统 Factory 类的类名。
(更多细节请查看 Java Service Loader docs)在插件检索时,文件系统 Factory 类会由一个专用的 Java 类加载器加载,从而避免与其他类或 Flink 组件冲突。在文件系统实例化和文件系统调用时,应使用该类加载器。
警告 实际上这表示您的实现应避免使用 Thread.currentThread().getContextClassLoader()
类加载器。
所有 Flink 无法找到直接支持的文件系统均将回退为 Hadoop。
当 flink-runtime
和 Hadoop 类包含在 classpath 中时,所有的 Hadoop 文件系统将自动可用。参见 Hadoop 集成。
因此,Flink 无缝支持所有实现 org.apache.hadoop.fs.FileSystem
接口的 Hadoop 文件系统和所有兼容 Hadoop 的文件系统 (Hadoop-compatible file system, HCFS):
Hadoop 配置须在 core-site.xml
文件中包含所需文件系统的实现。可查看 Alluxio 的示例。
除非有其他的需要,建议使用 Flink 内置的文件系统。在某些情况下,如通过配置 Hadoop core-site.xml
中的 fs.defaultFS
属性将文件系统作为 YARN 的资源存储时,可能需要直接使用 Hadoop 文件系统。
在 core-site.xml
文件中添加以下条目以支持 Alluxio: