Azure data factory 创建元数据驱动的管道-参数化源文件
我有CSV文件,它们放在blob存储容器的不同文件夹中。 这些文件将映射到数据库中的一个表,我们将使用ADF将数据复制到数据库中 目的是让管道元数据得到驱动。我们有一个包含JSON的文件,其中包含每个源文件和接收器表的详细信息Azure data factory 创建元数据驱动的管道-参数化源文件,azure-data-factory,azure-data-factory-pipeline,Azure Data Factory,Azure Data Factory Pipeline,我有CSV文件,它们放在blob存储容器的不同文件夹中。 这些文件将映射到数据库中的一个表,我们将使用ADF将数据复制到数据库中 目的是让管道元数据得到驱动。我们有一个包含JSON的文件,其中包含每个源文件和接收器表的详细信息 [ { "sourceContainer":"container1", "sourceFolder":"folder1", "sourceFile"
[
{
"sourceContainer":"container1",
"sourceFolder":"folder1",
"sourceFile":"datafile.csv",
"sinkTable":"staging1"
},
{
"sourceContainer":"container1",
"sourceFolder":"folder2",
"sourceFile":"datafile2.csv",
"sinkTable":"staging2"
}
]
for each将查看这些值,将它们放入变量中,并使用它们从相应的CSV加载相应的表
问题是,对于CSV源数据集,我无法使用用户变量(以下屏幕截图中标记为红色x的字段)参数化源数据集。
如果您能就如何解决此问题提供建议,我将不胜感激。此功能绝对受支持,因此我不确定您所说的“无法参数化”是什么意思。以下是定义参数的示例: 下面是一个引用它们的示例: 我建议您使用“添加动态内容”链接和表达式生成器来获得正确的引用 如果您有其他问题,请详细描述