Azure data factory 无法从日志分析获取与azure data factory映射数据流相关的日志

Azure data factory 无法从日志分析获取与azure data factory映射数据流相关的日志,azure-data-factory,azure-log-analytics,Azure Data Factory,Azure Log Analytics,我们正在努力实现一个定制的日志解决方案。我们需要的大部分信息已经存在于data factory analytics解决方案的日志分析中,但要获取数据流的日志信息,存在一个挑战。查询时,我们在输出中得到此错误。“太大,无法解析” 由于数据流是管道中复杂且关键的一部分,我们迫切需要获取数据流中每个活动的行复制、跳过、读取等数据。您可以帮助获取这些信息吗?您可以通过向下面的REST端点发出POST请求来获取ADF门户UI中显示的相同信息。您可以在下面的链接https://docs.microsoft.

我们正在努力实现一个定制的日志解决方案。我们需要的大部分信息已经存在于data factory analytics解决方案的日志分析中,但要获取数据流的日志信息,存在一个挑战。查询时,我们在输出中得到此错误。“太大,无法解析”


由于数据流是管道中复杂且关键的一部分,我们迫切需要获取数据流中每个活动的行复制、跳过、读取等数据。您可以帮助获取这些信息吗?

您可以通过向下面的REST端点发出POST请求来获取ADF门户UI中显示的相同信息。您可以在下面的链接
https://docs.microsoft.com/en-us/rest/api/datafactory/pipelineruns/querybyfactory

您可以根据需要选择按工厂查询或查询特定管道运行id

https://management.azure.com/subscriptions/<subscription id>/resourcegroups/<resource group name>/providers/Microsoft.DataFactory/factories/<ADF resource Name>/pipelineruns/<pipeline run id>/queryactivityruns?api-version=2018-06-01

这是使用Kustov查询映射数据流{“errorMessage”:“值太大,无法解析以进行日志记录”}
{
  "stage": 7,
  "partitionTimes": [
    950
  ],
  "lastUpdateTime": "2020-07-28 18:24:55.604",
  "bytesWritten": 0,
  "bytesRead": 544785954,
  "streams": {
    "CleanData": {
      "type": "select",
      "count": 241231,
      "partitionCounts": [
        950
      ],
      "cached": false
    },
    "ProductData": {
      "type": "source",
      "count": 241231,
      "partitionCounts": [
        950
      ],
      "cached": false
    }
  },
  "target": "MergeWithDeltaLakeTable",
  "time": 67589,
  "progressState": "Completed"
}