Apache flink 为什么flink批处理作业将print()、count()作为单个作业

Apache flink 为什么flink批处理作业将print()、count()作为单个作业,apache-flink,batch-processing,Apache Flink,Batch Processing,我正在编写一个flink批处理作业,并将许多print()添加到我的日期集以进行调试。然后使用作业群集模式在k8s中部署作业,作业管理器是一个k8s作业,并在第一次打印完成时停止 最后,我在本地环境中打开了一个ExecutionEnvironment.CreateLocalEnvironment WithWebUI(config),我发现flink execute作业一个接一个,具有不同的作业id,这些作业是我整个作业的子作业 如果是这样,为什么弗林克设计这种机制?是否需要删除生产环境中的所有p

我正在编写一个flink批处理作业,并将许多print()添加到我的
日期集
以进行调试。然后使用作业群集模式在k8s中部署作业,作业管理器是一个
k8s作业
,并在第一次打印完成时停止

最后,我在本地环境中打开了一个
ExecutionEnvironment.CreateLocalEnvironment WithWebUI(config)
,我发现flink execute作业一个接一个,具有不同的作业id,这些作业是我整个作业的子作业

如果是这样,为什么弗林克设计这种机制?是否需要删除生产环境中的所有print()函数?

请按照:

此方法立即触发程序执行,类似于collect()和count()方法

因此,不能在整个工作流中散布
print()
语句。您可以创建一个(a)从不过滤任何内容,以及(b)使用日志语句来记录传递给它的数据。注意,您需要小心不要处理太多数据,否则您可以用日志输出填充节点的磁盘