Web crawler DokuWiki下载程序

Web crawler DokuWiki下载程序,web-crawler,documentation,dokuwiki,Web Crawler,Documentation,Dokuwiki,我正在使用这个框架,它在DokuWiki中有文档。该框架的开发人员警告说,文档将消失,从而迫使用户切换到该框架的新版本 切换到新框架对我来说是不可能的,因为它需要对。。。我的每个应用程序中的所有内容。因此,我需要下载他们的文档,并希望它采用DokuWiki语法 我有一个拥有编辑页面权限的帐户,因此我可以看到每个页面的DokuWiki语法 问题:有没有办法爬过DokuWiki的所有页面,并以DokuWiki语法获取所有文章(当然有这样的特权) PS:作者拒绝提供所有DokuWiki(许可证不是原

我正在使用这个框架,它在DokuWiki中有文档。该框架的开发人员警告说,文档将消失,从而迫使用户切换到该框架的新版本

切换到新框架对我来说是不可能的,因为它需要对。。。我的每个应用程序中的所有内容。因此,我需要下载他们的文档,并希望它采用DokuWiki语法

我有一个拥有编辑页面权限的帐户,因此我可以看到每个页面的DokuWiki语法

问题:有没有办法爬过DokuWiki的所有页面,并以DokuWiki语法获取所有文章(当然有这样的特权)


PS:作者拒绝提供所有DokuWiki(许可证不是原因),我不想使用任何网站下载程序。我只想要漂亮干净的DokuWiki语法,而不必手动爬过所有页面,编辑它们并保存源代码


提前感谢您的帮助

如果他们没有禁用?do=export_raw机制,您可以使用它获取单个页面的原始wiki语法(请参阅)

可以使用RSS提要(请参阅)或Google站点地图(请参阅)获取所有页面的列表

将两者结合在一个小脚本中应该相对简单