Download 是否有一种从外部源收集图像文件的快速方法(Chrome Developer选项卡)

Download 是否有一种从外部源收集图像文件的快速方法(Chrome Developer选项卡),download,google-chrome-devtools,Download,Google Chrome Devtools,假设我访问了一个名为abc.xyz的网站 当我访问该网站时,我看到该网站运行一个javascript脚本来创建一本交互式书籍。显然,这本书的每一页都必须有图像文件 现在让我们假设我转到开发人员工具选项卡,然后转到源选项卡以查找图像-果然,我找到了它们。但是,这些图像来自名为xyz.abc的文件夹和域,访问时显示403错误 有没有比访问每个图像的链接并单独保存每个图像更快的方法来收集这些图像文件(请记住,图像本身不受访问限制) 真实世界示例: 在上图中,您可以看到文件夹中有多个图像文件(事实上有

假设我访问了一个名为abc.xyz的网站

当我访问该网站时,我看到该网站运行一个javascript脚本来创建一本交互式书籍。显然,这本书的每一页都必须有图像文件

现在让我们假设我转到开发人员工具选项卡,然后转到源选项卡以查找图像-果然,我找到了它们。但是,这些图像来自名为xyz.abc的文件夹和域,访问时显示403错误

有没有比访问每个图像的链接并单独保存每个图像更快的方法来收集这些图像文件(请记住,图像本身不受访问限制)

真实世界示例:

在上图中,您可以看到文件夹中有多个图像文件(事实上有数百个)。图像所在的域和文件夹在访问时显示403错误,但图像本身不受限制。要下载图像,您可以单独获取每个图像的链接并使用“另存图像为”。但是,这将耗费数百张图像的时间-是否有更快的方法下载所有图像


编辑:此外,是否有办法通过PDF文件上预先存在的页码快速订购PDF图像。

要获取网页图像,您可以使用python脚本获取所有图像
src
,稍后您可以对其执行任何操作,例如,将其复制到您的系统或网站。

我使用了
BeautifulSoup
进行网页垃圾处理

从bs4导入美化组
导入请求
页面=请求。获取(“https://stackoverflow.com/questions/63939080/is-there-a-fast-way-of-gathering-image-files-from-external-sources-chrome-devel")
soup=BeautifulSoup(page.content,'html.parser')
#打印(soup.prettify())
对于汤中的元素。查找所有(“img”):
尝试:
打印(元素['src'])
例外情况除外,如e:
通过

使用扩展或实用程序下载图像,有很多。您可以创建一个python脚本来下载所有图像。谢谢,我成功地收集了图像(由于网站有点怪异,所以做了一些修改),但我会将其标记为正确。未来读者注意:如果出现403错误,请尝试添加标题。