Python 如何下载网站中所有可用的数据文件夹?
一般来说,如果网站显示一系列指向包含文件夹的数据的链接(即包含经济数据的电子表格),我如何编写一个程序来识别所有链接并下载数据 特别是,我正在尝试下载本网站2012年至2018年的所有文件夹 我尝试了下面建议的方法,但似乎没有下载到数据的链接Python 如何下载网站中所有可用的数据文件夹?,python,web-scraping,download,Python,Web Scraping,Download,一般来说,如果网站显示一系列指向包含文件夹的数据的链接(即包含经济数据的电子表格),我如何编写一个程序来识别所有链接并下载数据 特别是,我正在尝试下载本网站2012年至2018年的所有文件夹 我尝试了下面建议的方法,但似乎没有下载到数据的链接 my_target='https://www.ngdc.noaa.gov/eog/viirs/download_dnb_composites.html' import requests from bs4 import BeautifulSoup r
my_target='https://www.ngdc.noaa.gov/eog/viirs/download_dnb_composites.html'
import requests
from bs4 import BeautifulSoup
r = requests.get(my_target)
data = r.text
soup = BeautifulSoup(data)
links=[]
for link in soup.find_all('a'):
links.append(link.get('href'))
print(link.get('href'))
在附加到链接的所有URL中,没有一个指向数据
最后,即使我有了正确的链接,如何使用它们来实际下载文件
非常感谢 这是一个典型的网页抓取任务
- 用于下载该页面
- 然后使用
- 现在,您可以使用提取的URL和