Apache flink Apache Flink(如何唯一地标记作业)
是否可以使用唯一的名称标记作业,以便我可以在以后停止它们?。我真的不想grep和持久化作业IDApache flink Apache Flink(如何唯一地标记作业),apache-flink,flink-streaming,Apache Flink,Flink Streaming,是否可以使用唯一的名称标记作业,以便我可以在以后停止它们?。我真的不想grep和持久化作业ID 简而言之,我想在部署过程中停止作业并部署新作业。在execute(name:String)调用中启动作业时,可以命名作业,例如 val env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment() val result: DataStream[] = ??? // your j
简而言之,我想在部署过程中停止作业并部署新作业。在
execute(name:String)
调用中启动作业时,可以命名作业,例如
val env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment()
val result: DataStream[] = ??? // your job logic
result.addSink(new YourSinkFunction) // add a sink
env.execute("Name of your job") // execute and assign a name
提供作业详细信息列表,其中包括作业名称及其作业ID。我可以使用此名称停止作业吗?据我所知,否。您需要作业ID。是否有跟踪作业和更新现有作业的最佳做法?。目前,为了支持对现有作业的更新,我必须将作业ID保留在某个位置以供参考。您可以在需要时使用REST界面查找作业ID。
/joboverview/running
提供了所有正在运行的作业的列表。您可以筛选该列表中的name=yourName
,以找到您正在寻找的工作。它不是特别舒服,但应该是这样做的。