Python 列出网页上所有扩展名为的文件的路径
python请求库中是否有命令或方法从网页下载具有特定扩展名的所有文件?或者至少列出完整路径,如ftp库中的nest命令?这是页面:我想要所有扩展名为.grib的文件Python 列出网页上所有扩展名为的文件的路径,python,python-requests,Python,Python Requests,python请求库中是否有命令或方法从网页下载具有特定扩展名的所有文件?或者至少列出完整路径,如ftp库中的nest命令?这是页面:我想要所有扩展名为.grib的文件 import re from bs4 import BeautifulSoup as soup data_html = soup(r'https://gimms.gsfc.nasa.gov/SMOS/jbolten/FAS/L03/', 'lxml') # making soap links = data_html.findAl
import re
from bs4 import BeautifulSoup as soup
data_html = soup(r'https://gimms.gsfc.nasa.gov/SMOS/jbolten/FAS/L03/', 'lxml') # making soap
links = data_html.findAll(href=re.compile("/.grib$"))
但是链接没有条目Web服务器使用HTTP协议工作,该协议没有“列出所有文件”方法。除非服务器本身生成一个列表并发送给您进行解析,否则没有获得文件列表的通用方法 您可以下载一些html页面,然后使用html解析器(如
lxml.html
)对其进行解析,并从该页面提取所有链接。然后,您为每个链接发送一个请求