Azure data factory 无法从日志分析获取与azure data factory映射数据流相关的日志
我们正在努力实现一个定制的日志解决方案。我们需要的大部分信息已经存在于data factory analytics解决方案的日志分析中,但要获取数据流的日志信息,存在一个挑战。查询时,我们在输出中得到此错误。“太大,无法解析”Azure data factory 无法从日志分析获取与azure data factory映射数据流相关的日志,azure-data-factory,azure-log-analytics,Azure Data Factory,Azure Log Analytics,我们正在努力实现一个定制的日志解决方案。我们需要的大部分信息已经存在于data factory analytics解决方案的日志分析中,但要获取数据流的日志信息,存在一个挑战。查询时,我们在输出中得到此错误。“太大,无法解析” 由于数据流是管道中复杂且关键的一部分,我们迫切需要获取数据流中每个活动的行复制、跳过、读取等数据。您可以帮助获取这些信息吗?您可以通过向下面的REST端点发出POST请求来获取ADF门户UI中显示的相同信息。您可以在下面的链接https://docs.microsoft.
由于数据流是管道中复杂且关键的一部分,我们迫切需要获取数据流中每个活动的行复制、跳过、读取等数据。您可以帮助获取这些信息吗?您可以通过向下面的REST端点发出POST请求来获取ADF门户UI中显示的相同信息。您可以在下面的链接
https://docs.microsoft.com/en-us/rest/api/datafactory/pipelineruns/querybyfactory
您可以根据需要选择按工厂查询或查询特定管道运行id
https://management.azure.com/subscriptions/<subscription id>/resourcegroups/<resource group name>/providers/Microsoft.DataFactory/factories/<ADF resource Name>/pipelineruns/<pipeline run id>/queryactivityruns?api-version=2018-06-01
这是使用Kustov查询映射数据流{“errorMessage”:“值太大,无法解析以进行日志记录”}
{
"stage": 7,
"partitionTimes": [
950
],
"lastUpdateTime": "2020-07-28 18:24:55.604",
"bytesWritten": 0,
"bytesRead": 544785954,
"streams": {
"CleanData": {
"type": "select",
"count": 241231,
"partitionCounts": [
950
],
"cached": false
},
"ProductData": {
"type": "source",
"count": 241231,
"partitionCounts": [
950
],
"cached": false
}
},
"target": "MergeWithDeltaLakeTable",
"time": 67589,
"progressState": "Completed"
}