可以使用不同的构建工具来构建Flink项目。 为了快速入门,Flink为以下构建工具提供了项目模板:
这些模板将帮助你建立项目的框架并创建初始化的构建文件。
你可以通过以下两种方法之一构建新项目:
为了构建你的项目,仅需简单的运行 sbt clean assembly
命令。
这将在 target/scala_your-major-scala-version/ 目录中创建一个 fat-jar your-project-name-assembly-0.1-SNAPSHOT.jar。
为了构建你的项目,需要运行 sbt run
。
默认情况下,这会在运行 sbt
的 JVM 中运行你的作业。
为了在不同的 JVM 中运行,请添加以下内容添加到 build.sbt
我们建议你使用 IntelliJ 来开发Flink作业。
开始,你需要将新建的项目导入到 IntelliJ。
通过 File -> New -> Project from Existing Sources...
操作路径,然后选择项目目录。之后 IntelliJ 将自动检测到 build.sbt
文件并设置好所有内容。
为了运行你的Flink作业,建议选择 mainRunner
模块作为 Run/Debug Configuration 的类路径。
这将确保在作业执行时可以使用所有设置为 provided 的依赖项。
你可以通过 Run -> Edit Configurations...
配置 Run/Debug Configurations,然后从 Use classpath of module 下拉框中选择 mainRunner
。
为了将新建的项目导入 Eclipse, 首先需要创建一个 Eclipse 项目文件。
通过插件 sbteclipse 创建项目文件,并将下面的内容添加到 PROJECT_DIR/project/plugins.sbt
文件中:
在 sbt
中使用以下命令创建 Eclipse 项目文件
现在你可以通过 File -> Import... -> Existing Projects into Workspace
将项目导入 Eclipse,然后选择项目目录。
唯一的要求是安装 Maven 3.0.4 (或更高版本) 和 Java 8.x。
使用以下命令之一来 创建项目:
项目创建后,工作目录中将多出一个新目录。如果你使用的是 curl 方式创建项目,目录称为 quickstart
,如果是另外一种创建方式,目录则称为你指定的 artifactId
。
样例项目是一个 Maven 项目, 包含了两个类: StreamingJob 和 BatchJob 是 DataStream 和 DataSet 程序的基本框架程序. main 方法是程序的入口, 既用于 IDE 内的测试/执行,也用于合理部署。
我们建议你将 此项目导入你的 IDE。
IntelliJ IDEA 支持 Maven 开箱即用,并为Scala开发提供插件。 从我们的经验来看,IntelliJ 提供了最好的Flink应用程序开发体验。
对于 Eclipse,需要以下的插件,你可以从提供的 Eclipse Update Sites 安装这些插件:
如果你想要 构建/打包你的项目, 进入到你的项目目录,并执行命令‘mvn clean package
’。
你将 找到一个 JAR 文件,其中包含了你的应用程序,以及已作为依赖项添加到应用程序的连接器和库:target/<artifact-id>-<version>.jar
。
注意: 如果你使用其他类而不是 StreamingJob 作为应用程序的主类/入口,我们建议你相应地更改 pom.xml
文件中 mainClass
的设置。这样,Flink 运行应用程序时无需另外指定主类。
开始编写你的应用!
如果你准备编写流处理应用,正在寻找灵感来写什么, 可以看看流处理应用程序教程
如果你准备编写批处理应用,正在寻找灵感来写什么, 可以看看批处理应用程序示例
有关 API 的完整概述,请查看 DataStream API 和 DataSet API 部分。
在这里,你可以找到如何在IDE外的本地集群中运行应用程序。
如果你有任何问题,请发信至我们的邮箱列表。 我们很乐意提供帮助。