Python 3.x 为什么可以';我不能使用wget从S3下载吗?

Python 3.x 为什么可以';我不能使用wget从S3下载吗?,python-3.x,wget,Python 3.x,Wget,当我进入浏览器,我可以下载一个文件没有问题。但是当我说 wget.download('https://s3.amazonaws.com/nyc-tlc/trip+data/fhv_tripdata_2015-01.csv', out='data/') 我得到一个404错误。那个URL的格式有问题吗 这不是一个复制品。wget可以很好地处理其他文件。这似乎是S3特有的问题,如下所述。根本原因是S3中的错误,如下所述: 一种解决方法是使用请求库: r = requests.get('https:/

当我进入浏览器,我可以下载一个文件没有问题。但是当我说

wget.download('https://s3.amazonaws.com/nyc-tlc/trip+data/fhv_tripdata_2015-01.csv', out='data/')
我得到一个404错误。那个URL的格式有问题吗


这不是一个复制品。wget可以很好地处理其他文件。这似乎是S3特有的问题,如下所述。

根本原因是S3中的错误,如下所述:

一种解决方法是使用
请求
库:

r = requests.get('https://s3.amazonaws.com/nyc-tlc/trip+data/fhv_tripdata_2015-01.csv')

这个很好用。您可以检查
r.text
或将其写入文件。有关最有效的方法,请参见

根本原因是S3中的错误,如下所述:

一种解决方法是使用
请求
库:

r = requests.get('https://s3.amazonaws.com/nyc-tlc/trip+data/fhv_tripdata_2015-01.csv')

这个很好用。您可以检查
r.text
或将其写入文件。关于最有效的方法,请参见

如何知道问题是因为url而不是(比如)标题?我甚至不知道如何检查。我到底在找什么?你可以用请求包。requests.get(url)应该可以。你怎么知道问题的可能重复是因为url,而不是,比如说,标题?我甚至不知道如何检查。我到底在找什么?你可以用请求包。requests.get(url)应该可以做到这一点。的可能重复项