Python 3.x 使用asyncio和aiohttp从url加载zip文件

Python 3.x 使用asyncio和aiohttp从url加载zip文件,python-3.x,web-scraping,zip,python-asyncio,aiohttp,Python 3.x,Web Scraping,Zip,Python Asyncio,Aiohttp,如何使用GET请求加载Zip文件 我在Python应用程序中使用asyncio和aiohttp。 这是我的密码: async def fetch_page(session, url): with aiohttp.Timeout(10): async with session.get(url) as response: assert response.status == 200 return await response.re

如何使用GET请求加载Zip文件

我在Python应用程序中使用asyncio和aiohttp。 这是我的密码:

async def fetch_page(session, url):
    with aiohttp.Timeout(10):
        async with session.get(url) as response:
            assert response.status == 200
            return await response.read()

loop = asyncio.get_event_loop()
links = ['http://www2.census.gov/census_2010/04-Summary_File_1/Louisiana/la2010.sf1.zip']
for link in links:
    with aiohttp.ClientSession(loop=loop) as session:
        response = loop.run_until_complete(fetch_page(session, url=link))
        print(type(response))

然后我得到asyncio.TimeoutError

如果文件很大,下载可能需要10秒以上。增加您使用的超时值或不使用。此外,如果您同时下载多个文件,您的带宽自然会除以同时下载的数量,因此它会将下载时间乘以相同的值。如果你下载100个文件,你很容易达到每个文件10个。