Web Scraping(Python)多请求运行时太慢
我正在做一个个人项目,我需要做多个请求,从不同的页面(~800个请求)中刮取关键字和抽象数据。每次运行我的程序,都要花费30分钟来刮取所有数据 我在考虑两种加速运行时间的方法:Web Scraping(Python)多请求运行时太慢,python,web-scraping,beautifulsoup,request,Python,Web Scraping,Beautifulsoup,Request,我正在做一个个人项目,我需要做多个请求,从不同的页面(~800个请求)中刮取关键字和抽象数据。每次运行我的程序,都要花费30分钟来刮取所有数据 我在考虑两种加速运行时间的方法: 将数据读入CSV文件一次,然后使用panada从CSV文件中读取数据,以备将来参考 创建一个MySQL数据库并在其中存储数据 这两种方法可行吗?如果我能得到一些见解,那就太好了。 感谢具有刮取方面的一些经验在使用请求库进行获取和发布时,您有多种选择。->请记住要继续上课 或者使用一个框架作为 以最佳方式刮取的主要方法是:
感谢具有刮取方面的一些经验在使用请求库进行获取和发布时,您有多种选择。->请记住要继续上课 或者使用一个框架作为 以最佳方式刮取的主要方法是:
[3] -如果您按分钟提出多个合理的请求,某些网站会阻止您。仅供参考,这是“刮”和“刮”而不是“刮”或“刮”您是对的@barny。谢谢你纠正我。这让我检查并纠正了我的假设!!再次感谢你,这是刮(刮,刮,刮)而不是刮。”“报废”的意思是像垃圾一样扔掉。