Sql server 完成两个单独的ADFv2管道后执行脚本

Sql server 完成两个单独的ADFv2管道后执行脚本,sql-server,azure,azure-data-factory-2,Sql Server,Azure,Azure Data Factory 2,我有两个ADFv2管道,它们将数据导入Azure SQL数据库中的两个单独的srl表中。一旦两个管道都完成了,我就需要执行一个脚本 启动每个管道执行的源.csv文件将每天创建一次,但我只能在两个管道都完成后执行脚本 通过创建单独的.csv文件,通过逻辑应用程序触发每个单独的管道 我也可以使用Logic应用程序,但目前我找不到实现这一点的最佳流程 非常感谢您的帮助。2情况: 1.如果不介意管道线性执行,可以使用执行管道活动。执行函数,直到前两个执行管道活动成功执行,如下过程: 2.如果不是,我的

我有两个ADFv2管道,它们将数据导入Azure SQL数据库中的两个单独的srl表中。一旦两个管道都完成了,我就需要执行一个脚本

启动每个管道执行的源.csv文件将每天创建一次,但我只能在两个管道都完成后执行脚本

通过创建单独的.csv文件,通过逻辑应用程序触发每个单独的管道

我也可以使用Logic应用程序,但目前我找不到实现这一点的最佳流程

非常感谢您的帮助。

2情况:

1.如果不介意管道线性执行,可以使用执行管道活动。执行函数,直到前两个执行管道活动成功执行,如下过程:

2.如果不是,我的想法是使用队列触发器。管道执行后,通过例如Web Activity()向发送消息。配置一个函数队列触发器,判断它是否接收到2条成功消息,然后执行一些作业

当然,您可以使用去轮询来检查两个管道的执行状态和结果,并执行下一个作业。你可以选择一个合适的解决方案

此外,您还可以了解您在回答中提到的Logic应用程序。它支持2个连接器的run-after。他们都成功了,然后做下一项工作

2情况:

1.如果不介意管道线性执行,可以使用执行管道活动。执行函数,直到前两个执行管道活动成功执行,如下过程:

2.如果不是,我的想法是使用队列触发器。管道执行后,通过例如Web Activity()向发送消息。配置一个函数队列触发器,判断它是否接收到2条成功消息,然后执行一些作业

当然,您可以使用去轮询来检查两个管道的执行状态和结果,并执行下一个作业。你可以选择一个合适的解决方案

此外,您还可以了解您在回答中提到的Logic应用程序。它支持2个连接器的run-after。他们都成功了,然后做下一项工作


谢谢你,杰。我无法使用您的第一个建议,因为每个单独的管道都是通过创建单独的.csv文件通过逻辑应用程序触发的。任何一个.csv都没有固定的交付时间,因此需要分别执行每个管道。接下来的问题是如何执行脚本。我还想创建一个“flag”表,在该表中,我在每个管道完成后创建一条记录,然后在行数为2时以某种方式执行脚本。但这似乎有点复杂。我在你最初的问题中添加了一些信息,你只是在这篇评论中明确指出了这些信息。无论如何你想触发什么样的脚本(T-SQL?)你一定要触发从逻辑应用程序导入这两个文件吗?在这种情况下,没有办法避免使用控制表,但是您需要确保它永远不会“卡住”,谢谢Nick。我没有在这里发布太多,所以感谢大家的提醒,我可以在原来的问题中添加更多信息。我不知道你说的控制表是什么意思。我不必通过逻辑应用程序触发这两个管道,但我确实需要在本地文件夹中创建csv后立即运行管道。一旦加载了这两个表,我就需要执行一个存储过程,通过视图将这两个表合并到另一个表中。最后一个表必须只包含两次加载的数据。谢谢。我无法使用您的第一个建议,因为每个单独的管道都是通过创建单独的.csv文件通过逻辑应用程序触发的。任何一个.csv都没有固定的交付时间,因此需要分别执行每个管道。接下来的问题是如何执行脚本。我还想创建一个“flag”表,在该表中,我在每个管道完成后创建一条记录,然后在行数为2时以某种方式执行脚本。但这似乎有点复杂。我在你最初的问题中添加了一些信息,你只是在这篇评论中明确指出了这些信息。无论如何你想触发什么样的脚本(T-SQL?)你一定要触发从逻辑应用程序导入这两个文件吗?在这种情况下,没有办法避免使用控制表,但是您需要确保它永远不会“卡住”,谢谢Nick。我没有在这里发布太多,所以感谢大家的提醒,我可以在原来的问题中添加更多信息。我不知道你说的控制表是什么意思。我不必通过逻辑应用程序触发这两个管道,但我确实需要在本地文件夹中创建csv后立即运行管道。一旦加载了这两个表,我就需要执行一个存储过程,通过视图将这两个表合并到另一个表中。最后一个表必须只包含两个加载的数据。什么类型的脚本?SQL脚本?什么样的脚本?SQL脚本?