Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/gwt/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache nifi ApacheNIFI:使用模板时如何避免重复_Apache Nifi - Fatal编程技术网

Apache nifi ApacheNIFI:使用模板时如何避免重复

Apache nifi ApacheNIFI:使用模板时如何避免重复,apache-nifi,Apache Nifi,我正在使用NiFi在远程配置单元上执行一些查询。 由于查询非常复杂,并且没有选择任何需要的内容,因此我需要使用PutHiveQL处理器,该处理器要求将查询作为流文件。 要生成对流文件的查询,我将使用GenerateFlowFile后跟ReplaceText 集群有3台主机,查询执行3次 有没有一种方法可以让这个查询以简单的方式生成/执行一次 为了避免重复,我尝试使用HashContent后跟DetectDuplicate,我面临缓存持久性问题如何使用处理器从DistributedMapCache

我正在使用NiFi在远程配置单元上执行一些查询。
由于查询非常复杂,并且没有选择任何需要的内容,因此我需要使用
PutHiveQL
处理器,该处理器要求将查询作为流文件。
要生成对流文件的查询,我将使用
GenerateFlowFile
后跟
ReplaceText

集群有3台主机,查询执行3次
有没有一种方法可以让这个查询以简单的方式生成/执行一次

为了避免重复,我尝试使用
HashContent
后跟
DetectDuplicate
,我面临缓存持久性问题

如何使用处理器从
DistributedMapCacheService
中删除条目?

是否有方法设置存储在
DistributedMapCacheService
中的每个条目的TTL

您可以从处理器的计划选项卡中计划GenerateFlowFile处理器在“仅主节点”上运行。这将只导致集群中的主节点执行该处理器,从而只执行一个查询。

好的,现在如何使用crontab调度策略?是的,它确实有效,但在这种情况下,我失去了cron调度策略。这里有办法把它拿回来吗?