使用python获取多个JSON api请求的最快方法

使用python获取多个JSON api请求的最快方法,python,json,api,asynchronous,Python,Json,Api,Asynchronous,我想获取JSON api链接并将其内容保存在列表中。我必须“刮”很多页面,它们遵循此结构www.example.com/123。我需要将所有api内容从列表中的1保存到100000。做这件事最好最快的方法是什么?我尝试了各种异步方法,但我真的很难找到它们。如果你能告诉我我要做什么最好。谢谢 这是我编的一些非常愚蠢的代码。不要问我为什么或者如何,只是试着把我发现的东西和不起作用的东西放在一起 import eventlet from eventlet.green.urllib import req

我想获取JSON api链接并将其内容保存在列表中。我必须“刮”很多页面,它们遵循此结构
www.example.com/
123
。我需要将所有api内容从列表中的
1
保存到
100000
。做这件事最好最快的方法是什么?我尝试了各种异步方法,但我真的很难找到它们。如果你能告诉我我要做什么最好。谢谢

这是我编的一些非常愚蠢的代码。不要问我为什么或者如何,只是试着把我发现的东西和不起作用的东西放在一起

import eventlet
from eventlet.green.urllib import request
rein = range(1700578258, 1700578258 + 150000)
rein = list(rein)
urlz = "https://acs.leagueoflegends.com/v1/stats/game/NA1/"
urls = [urlz + str(k) for k in rein]
def fetch(url):

  return request.urlopen(url).read()

pool = eventlet.GreenPool()
hbod = []
while len(hbod) != 100:
  try:
    for body in pool.imap(fetch, urls[0:100]):
      hbod.append(body)
      print(len(hbod))
  except:
    pass

请分享您已经编写的代码。完成,但我认为这不会有任何帮助。这主要是为了弄清楚eventlet或任何东西是如何工作的…@MadRabbit请记住,几乎所有的API都会有一个节流/限制,如果你超过它,你很可能会被阻止和/或可能被列入黑名单/IP禁止。例子: