Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/api/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
如何降低json调用之间的毫秒数?_Json_Api_Google Apps Script_Google Sheets - Fatal编程技术网

如何降低json调用之间的毫秒数?

如何降低json调用之间的毫秒数?,json,api,google-apps-script,google-sheets,Json,Api,Google Apps Script,Google Sheets,我经常在Seatgeek调用几百个端点。为了避免Seatgeek限制我的过度使用,我如何降低每次调用之间的毫秒数 我只需要每天运行两次呼叫,不知道从哪里查看我访问他们数据的频率。我担心的是,在我弄清楚发生了什么之前,我会被切断-救命 添加一些日志语句,而不是调用实际端点来查看处理的频率 为了放慢速度,你可以引入睡眠(你可以在你选择的语言中找到类似的东西) 或者更确切地说,按照希望脚本运行的时间间隔安排脚本。可以利用crontab或完整的调度程序,如Apache aiffort/ControlM/

我经常在Seatgeek调用几百个端点。为了避免Seatgeek限制我的过度使用,我如何降低每次调用之间的毫秒数

我只需要每天运行两次呼叫,不知道从哪里查看我访问他们数据的频率。我担心的是,在我弄清楚发生了什么之前,我会被切断-救命

  • 添加一些日志语句,而不是调用实际端点来查看处理的频率
  • 为了放慢速度,你可以引入睡眠(你可以在你选择的语言中找到类似的东西)
  • 或者更确切地说,按照希望脚本运行的时间间隔安排脚本。可以利用crontab或完整的调度程序,如Apache aiffort/ControlM/Jenkins等

  • 谢谢@so random dude-我最终使用了选项三的一个版本,我将=importjson()放在一列中,然后编写连接公式的最后一部分脚本以粘贴和完成url端点--我捕获数据--然后脚本删除该部分。这样,我每天只调用~1100个端点中的每个端点一次(当脚本运行时)。