Python 列出网页上所有扩展名为的文件的路径

Python 列出网页上所有扩展名为的文件的路径,python,python-requests,Python,Python Requests,python请求库中是否有命令或方法从网页下载具有特定扩展名的所有文件?或者至少列出完整路径,如ftp库中的nest命令?这是页面:我想要所有扩展名为.grib的文件 import re from bs4 import BeautifulSoup as soup data_html = soup(r'https://gimms.gsfc.nasa.gov/SMOS/jbolten/FAS/L03/', 'lxml') # making soap links = data_html.findAl

python请求库中是否有命令或方法从网页下载具有特定扩展名的所有文件?或者至少列出完整路径,如ftp库中的nest命令?这是页面:我想要所有扩展名为.grib的文件

import re
from bs4 import BeautifulSoup as soup
data_html = soup(r'https://gimms.gsfc.nasa.gov/SMOS/jbolten/FAS/L03/', 'lxml')  # making soap
links = data_html.findAll(href=re.compile("/.grib$"))

但是链接没有条目

Web服务器使用HTTP协议工作,该协议没有“列出所有文件”方法。除非服务器本身生成一个列表并发送给您进行解析,否则没有获得文件列表的通用方法

您可以下载一些html页面,然后使用html解析器(如
lxml.html
)对其进行解析,并从该页面提取所有链接。然后,您为每个链接发送一个请求