Web crawler 并行Wikipedia请求的安全数量

Web crawler 并行Wikipedia请求的安全数量,web-crawler,wikipedia,Web Crawler,Wikipedia,我可以向维基百科发出多少个安全的并行GET请求,而不受它们的限制,也不生我的气。它们陈述了一些和 对读取请求没有严格的限制,但我们要求您 为他人着想,尽量不要破坏网站。大多数系统管理员保留 如果你确实危及安全,有权不客气地阻止你 他们场地的稳定性 如果您以串联方式而不是并行方式提出请求(即等待 在发送新请求之前完成一个请求,例如 你永远不会在同一时间提出多个请求),那么你 应该没问题。还可以尝试将内容合并到一个请求中(例如,在titles参数中使用多个title,而不是为每个title发出新请求

我可以向维基百科发出多少个安全的并行GET请求,而不受它们的限制,也不生我的气。

它们陈述了一些和

对读取请求没有严格的限制,但我们要求您 为他人着想,尽量不要破坏网站。大多数系统管理员保留 如果你确实危及安全,有权不客气地阻止你 他们场地的稳定性

如果您以串联方式而不是并行方式提出请求(即等待 在发送新请求之前完成一个请求,例如 你永远不会在同一时间提出多个请求),那么你 应该没问题。还可以尝试将内容合并到一个请求中(例如,在titles参数中使用多个title,而不是为每个title发出新请求)

API FAQ声明每个API请求可以检索50页

如果您需要离线内容(可能有点过时),也可以使用


为了在遇到任何限制时优雅地终止脚本,您可以使用状态消息处理API调用中的错误和警告。

我投票将此问题作为离题问题结束,因为这是维基百科自己记录的,或者您必须去问他们,特别是。