Azure data factory 在ADF管道中使用Teradata作为源调整批读取大小

Azure data factory 在ADF管道中使用Teradata作为源调整批读取大小,azure-data-factory,azure-data-factory-2,Azure Data Factory,Azure Data Factory 2,我想知道是否有人有机会使用Teradata作为源,如果有,您知道我们是否可以为它设置批读取大小吗?我目前正在连接一个on-prem Teradata,希望通过调整Teradata源端的批处理大小来提高将文件移动到blob存储帐户的性能 谢谢批写入大小是位于接收器端的属性,如果我知道您正在从源Terradata读取数据。我认为您正在寻找一个读取批量大小属性,据我所知,该属性目前不存在 但我认为,由于Terradata支持查询中的TOP N,您可以通过一次读取TOP N记录来循环遍历所有记录 我不懂

我想知道是否有人有机会使用Teradata作为源,如果有,您知道我们是否可以为它设置批读取大小吗?我目前正在连接一个on-prem Teradata,希望通过调整Teradata源端的批处理大小来提高将文件移动到blob存储帐户的性能


谢谢

批写入大小是位于接收器端的属性,如果我知道您正在从源Terradata读取数据。我认为您正在寻找一个读取批量大小属性,据我所知,该属性目前不存在

但我认为,由于Terradata支持查询中的TOP N,您可以通过一次读取TOP N记录来循环遍历所有记录


我不懂Terradata,但我认为我们可以用SQL实现这一点。

Hi@HimanshuSinha msft感谢您的更新。我将查看TOP N查询。我避免在源代码中使用查询的原因是我想利用ADF允许的并行哈希属性。您知道其他来源是否支持读取批量大小吗?例如Azure DB到Azure DB或Oracle到Azure DB?这仅适用于DB源,还是blob和存储gen2也支持这一功能?