Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/fortran/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 如何有效地从Marketo中提取所有活动并处理每天500 MB的配额_Python_Marketo - Fatal编程技术网

Python 如何有效地从Marketo中提取所有活动并处理每天500 MB的配额

Python 如何有效地从Marketo中提取所有活动并处理每天500 MB的配额,python,marketo,Python,Marketo,我是marketo的新手,所以如果这里有一个简单的答案,请原谅我 对于我的用例,我需要从数据库以及所有活动中提取所有marketo线索。从每日配额的角度来看,潜在客户不是一个大问题,但活动的文件大小是一个问题。在第一次运行时,我需要检索Marketo db开始时的所有活动和线索,但一个月的活动可能会超过500mb的限制。是否有更好/更有效的方法来提取我需要的所有数据,或者这里的答案只是创建一个流程,以500mb的增量提取活动,并在超过500mb后等待配额重置时间再次执行?简短回答:是的,只需等待

我是marketo的新手,所以如果这里有一个简单的答案,请原谅我


对于我的用例,我需要从数据库以及所有活动中提取所有marketo线索。从每日配额的角度来看,潜在客户不是一个大问题,但活动的文件大小是一个问题。在第一次运行时,我需要检索Marketo db开始时的所有活动和线索,但一个月的活动可能会超过500mb的限制。是否有更好/更有效的方法来提取我需要的所有数据,或者这里的答案只是创建一个流程,以500mb的增量提取活动,并在超过500mb后等待配额重置时间再次执行?

简短回答:是的,只需等待,并按照您需要的天数执行即可

长答案:视情况而定。如果需要,您可以联系Marketo以提高500 MB API的出口限制,我相信如果需要的话,这会带来额外的费用,但我不太清楚为了获得历史数据而临时增加的费用。此外,如果你一个月内已经有了价值500兆的数据,那么我推荐的其他选项,比如专门针对活动并一次性编写,可能没有意义

您还可以调整在批量导出中下载的内容—经常会有重复的数据无法捕获两次。我能马上想到的两个例子是关于分数更改(它产生了一个独特的分数活动和一个独特的数据值更改活动)和生命周期模型更改(它也产生了一个独特的阶段更改活动和一个数据值更改活动)。减少这些可能会让你走得更远更快;在这两种情况下,我建议放弃数据值更改