Web scraping 迁移博客时保持永久链接

Web scraping 迁移博客时保持永久链接,web-scraping,b2evolution,Web Scraping,B2evolution,我计划将我的博客从迁移到完全不同的地方(待定)。我不太可能使用自动导入或转换实用程序 我想提取所有Permalink URL并将它们与文章标题关联,以便更容易创建重定向文件 转换后我的旧博客将无法访问,因此我将无法访问它 有没有一个简单的方法可以做到这一点?(我可以用HTMLAgilityPack手工编写一些东西,但这需要几个小时。) 或者,有没有一种快速的方法来创建一个保留URL的(动态PHP)站点的脱机副本?我曾经根据@Bartdude的建议保存该站点的脱机版本。permalinks需要一些

我计划将我的博客从迁移到完全不同的地方(待定)。我不太可能使用自动导入或转换实用程序

我想提取所有Permalink URL并将它们与文章标题关联,以便更容易创建重定向文件

转换后我的旧博客将无法访问,因此我将无法访问它

有没有一个简单的方法可以做到这一点?(我可以用HTMLAgilityPack手工编写一些东西,但这需要几个小时。)


或者,有没有一种快速的方法来创建一个保留URL的(动态PHP)站点的脱机副本?

我曾经根据@Bartdude的建议保存该站点的脱机版本。permalinks需要一些轻微的调整(strip prefix和trailing.html,添加http冒号斜杠),但这不是问题。类似的工具也可以使用。

或者,有没有一种快速的方法来创建(动态PHP)站点的脱机副本并保留URL?
>如果我没有弄错的话,像winHTTrack这样的工具可以“抓取”整个现有站点,并使用相同的目录结构保存它的脱机版本(这是一个伪造的“URL重写”站点)。然后,你可以将这些静态页面(和图像等)作为归档文件存放在新的动态站点上(没有新的评论,因此=>你可能还需要一些页面布局更新来删除“添加评论”等等)@Bartdude我尝试了离线下载,但它把页面和URL搞砸了。如果有一个具体的计划能够奏效,那将是一个可以接受的答案。谢谢好吧,这些年来我用了好几次,每次都有很好的效果。界面很难看,不太友好,但它完成了任务,而且是免费的。“我认为值得一试。”巴特杜德——这很管用。permalinks需要一些轻微的调整(strip prefix和trailing.html,添加http冒号斜杠),但这不是问题。如果你想把这个作为回答,我会接受的。多谢!