Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/json/14.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Web scraping 如何从维基百科下载所有个人页面?_Web Scraping_Wikipedia_Wikipedia Api - Fatal编程技术网

Web scraping 如何从维基百科下载所有个人页面?

Web scraping 如何从维基百科下载所有个人页面?,web-scraping,wikipedia,wikipedia-api,Web Scraping,Wikipedia,Wikipedia Api,是否可以下载一个类别(例如)及其所有子类别的所有维基百科页面 问题在于,特定页面没有使用最顶层的类别进行标记,而使用Wikimedia API的每页跟踪非常长。是否可以使用某些工具批量下载此文件?不,不可能,因为类别是如何生成的。你必须自己走。另见上的讨论 对于特定类别,您只需使用“特殊:导出”并在其中添加类别,而不是标题列表。假设您的意思是“下载”的wikitext导出;如果您想要HTML,您唯一的选择就是API中的呈现模块,或parsoid。您可以从其转储服务器下载整个wikipedia

是否可以下载一个类别(例如)及其所有子类别的所有维基百科页面


问题在于,特定页面没有使用最顶层的类别进行标记,而使用Wikimedia API的每页跟踪非常长。是否可以使用某些工具批量下载此文件?

不,不可能,因为类别是如何生成的。你必须自己走。另见上的讨论

对于特定类别,您只需使用“特殊:导出”并在其中添加类别,而不是标题列表。假设您的意思是“下载”的wikitext导出;如果您想要HTML,您唯一的选择就是API中的呈现模块,或parsoid。

您可以从其转储服务器下载整个wikipedia