Ruby 使用Mechanize检索网站的所有链接
如何使用Ruby 使用Mechanize检索网站的所有链接,ruby,recursion,mechanize,web-crawler,Ruby,Recursion,Mechanize,Web Crawler,如何使用Mechanize库查找网站上的所有链接 我喜欢递归解析内部链接,以便获取网站的所有链接。你看过gem吗?它是专门为爬行网站创建的 您可以这样做来抓取并打印网站的所有链接: require 'anemone' Anemone.crawl("http://www.example.com/") do |anemone| anemone.focus_crawl { |page| puts page.links } end 如果您想爬行整个方面,排除某些类型的链接,或者排除类似的链接,那
Mechanize
库查找网站上的所有链接
我喜欢递归解析内部链接,以便获取网站的所有链接。你看过gem吗?它是专门为爬行网站创建的
您可以这样做来抓取并打印网站的所有链接:
require 'anemone'
Anemone.crawl("http://www.example.com/") do |anemone|
anemone.focus_crawl { |page| puts page.links }
end
如果您想爬行整个方面,排除某些类型的链接,或者排除类似的链接,那么可以选择这些选项。不是ruby解决方案,但我觉得简单有效