Python 使用Azure数据工厂从REST API获取数据

Python 使用Azure数据工厂从REST API获取数据,python,azure,azure-data-factory,Python,Azure,Azure Data Factory,我正在尝试使用Azure数据工厂通过RESTAPI从Pendo获取数据。此活动的PYTHON代码是 import requests url = "https://app.pendo.io/api/v1/aggregation" data = "{\"response\":{\"mimeType\":\"application/json\"},\"request\":{\"pipeline\":[{\"source\":{\"guideEvents\":null,\"timeSeries\":{\

我正在尝试使用Azure数据工厂通过RESTAPI从Pendo获取数据。此活动的PYTHON代码是

import requests
url = "https://app.pendo.io/api/v1/aggregation"
data = "{\"response\":{\"mimeType\":\"application/json\"},\"request\":{\"pipeline\":[{\"source\":{\"guideEvents\":null,\"timeSeries\":{\"first\":\"1506977216000\",\"count\":-10,\"period\":\"dayRange\"}}}]}}"
headers = {
    'x-pendo-integration-key': "[add_your_pendo_int_key_here]",
    'content-type': "application/json"
}
response = requests.post(url, data = data, headers = headers)
如何通过Azure数据工厂定义代码的数据部分?
我已将内容类型和x-pendo-integration-key放在附加标题中。

您可以使用HTTP连接器从HTTP端点检索数据。以下活动支持此HTTP连接器:

  • 使用支持的源/接收器矩阵复制活动
  • 查找活动 您可以将数据从HTTP源复制到任何受支持的接收器数据存储。有关复制活动支持作为源和汇的数据存储的列表
注意:要在data Factory中配置HTTP连接器之前测试数据检索的HTTP请求,请了解标头和正文要求的API规范。您可以使用邮递员或web浏览器等工具进行验证

以下是POST的自定义活动示例:

{
    "name": "HttpSourceDataInput",
    "properties": {
        "type": "HttpFile",
        "linkedServiceName": {
            "referenceName": "<HTTP linked service name>",
            "type": "LinkedServiceReference"
        },
        "typeProperties": {
            "relativeUrl": "<relative url>",
            "requestMethod": "Post",
            "requestBody": "<body for POST HTTP request>"
        }
    }
}
{
“名称”:“HttpSourceDataInput”,
“财产”:{
“类型”:“HttpFile”,
“linkedServiceName”:{
“referenceName”:“,
“类型”:“LinkedServiceReference”
},
“类型属性”:{
“相对性”:“相对性”,
“请求方法”:“Post”,
“请求主体”:”
}
}
}
您可以查看与ADF相关的样本。也可以查找其他参考。
希望有帮助。

您可以使用HTTP连接器从HTTP端点检索数据。以下活动支持此HTTP连接器:

  • 使用支持的源/接收器矩阵复制活动
  • 查找活动 您可以将数据从HTTP源复制到任何受支持的接收器数据存储。有关复制活动支持作为源和汇的数据存储的列表
注意:要在data Factory中配置HTTP连接器之前测试数据检索的HTTP请求,请了解标头和正文要求的API规范。您可以使用邮递员或web浏览器等工具进行验证

以下是POST的自定义活动示例:

{
    "name": "HttpSourceDataInput",
    "properties": {
        "type": "HttpFile",
        "linkedServiceName": {
            "referenceName": "<HTTP linked service name>",
            "type": "LinkedServiceReference"
        },
        "typeProperties": {
            "relativeUrl": "<relative url>",
            "requestMethod": "Post",
            "requestBody": "<body for POST HTTP request>"
        }
    }
}
{
“名称”:“HttpSourceDataInput”,
“财产”:{
“类型”:“HttpFile”,
“linkedServiceName”:{
“referenceName”:“,
“类型”:“LinkedServiceReference”
},
“类型属性”:{
“相对性”:“相对性”,
“请求方法”:“Post”,
“请求主体”:”
}
}
}
您可以查看与ADF相关的样本。也可以查找其他参考。
希望有帮助。

问题解决了。PYTHON代码的数据部分(不带
\
)放在Azure数据工厂中复制活动的请求主体中,请求方法为POST。

问题已解决。PYTHON代码的数据部分(不带
\
)放在Azure data Factory中复制活动的请求主体中,请求方法为POST。

侧边注释:如果将
数据
括在三个引号中,则不需要所有这些反斜杠。侧边注释:如果将
数据
括在三个引号中,你不需要所有的反斜杠。谢谢你的回复。ADF现在有了RESTAPI的连接器。你只需要把标题放进去,它就会连接到终点。我在问如何处理Python代码的数据部分中指定的聚合。感谢您的回答。ADF现在有了RESTAPI的连接器。你只需要把标题放进去,它就会连接到终点。我在问如何处理Python代码的数据部分中指定的聚合。