Apache nifi Apache NIFI Jon没有自动终止

Apache nifi Apache NIFI Jon没有自动终止,apache-nifi,Apache Nifi,我不熟悉apachenifi工具。我正在尝试从mongo db导入数据,并将该数据放入HDFS。我已经创建了两个处理器,一个用于MongoDB,另一个用于HDFS,并且正确配置了它们。作业正在成功运行并将数据存储到HDFS中,但作业应在成功时自动终止。但事实并非如此,而且在HDFS中创建了太多的文件。我想知道如何在NIFI中创建按需作业,以及如何确定作业是否成功。GetMongo将继续根据提供的属性(如Query,Projection,Limit)从MongoDB中提取数据。它无法跟踪执行过程,

我不熟悉apachenifi工具。我正在尝试从mongo db导入数据,并将该数据放入HDFS。我已经创建了两个处理器,一个用于MongoDB,另一个用于HDFS,并且正确配置了它们。作业正在成功运行并将数据存储到HDFS中,但作业应在成功时自动终止。但事实并非如此,而且在HDFS中创建了太多的文件。我想知道如何在NIFI中创建按需作业,以及如何确定作业是否成功。

GetMongo
将继续根据提供的属性(如
Query
Projection
Limit
)从MongoDB中提取数据。它无法跟踪执行过程,至少目前是这样。但是,您可以做的是更改
运行计划
和/或
计划策略
。您可以通过右键单击处理器并单击
Configure
找到它们。默认情况下,
运行计划
将为0秒,这意味着连续运行。将其更改为,例如,
60分钟
将使处理器每一小时运行一次。这仍然会每隔一小时从MongoDB中再次读取相同的文档,但是由于您已经提到您只想运行它一次,所以我建议使用这种方法

GetMongo
将继续根据提供的属性(如
Query
Projection
Limit
)从MongoDB中提取数据。它无法跟踪执行过程,至少目前是这样。但是,您可以做的是更改
运行计划
和/或
计划策略
。您可以通过右键单击处理器并单击
Configure
找到它们。默认情况下,
运行计划
将为0秒,这意味着连续运行。将其更改为,例如,
60分钟
将使处理器每一小时运行一次。这仍然会每隔一小时从MongoDB中再次读取相同的文档,但是由于您已经提到您只想运行它一次,所以我建议使用这种方法

谢谢你的解释。您能帮助我如何在Getmongo内部传递查询吗?我正在尝试传递简单的db.collection.find(),但它总是显示感叹号。该查询应采用有效的JSON格式,而不是Mongo shell查询。顺便说一句,
Query
属性是可选的,如果省略,整个集合将被查询并作为流文件返回。示例查询应该是:{a:1,b:2}谢谢您的解释。您能帮助我如何在Getmongo内部传递查询吗?我正在尝试传递简单的db.collection.find(),但它总是显示感叹号。该查询应采用有效的JSON格式,而不是Mongo shell查询。顺便说一句,
Query
属性是可选的,如果省略,整个集合将被查询并作为流文件返回。示例查询应该类似于:{a:1,b:2}