Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/284.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 使用cron作业从url转储文件_Python_Curl_Cron_Wget_Urllib - Fatal编程技术网

Python 使用cron作业从url转储文件

Python 使用cron作业从url转储文件,python,curl,cron,wget,urllib,Python,Curl,Cron,Wget,Urllib,我用urllib编写了简单的Python脚本来检索文件。如果地址中的文件拥有结尾,比如.txt、或.exe或.csv,则一切正常。但我得到了一个url,文件结尾如下-action=download&user=kff&projectname=15&date=today;正如我看到的,它从sql数据库查询数据,并在浏览器中以csv格式转储数据。当我在浏览器中使用这个简单的链接时,它工作得非常好。当我尝试使用python时,它会转储大小为0 Kb的文件。代码如下: import os import u

我用urllib编写了简单的Python脚本来检索文件。如果地址中的文件拥有结尾,比如.txt、或.exe或.csv,则一切正常。但我得到了一个url,文件结尾如下-action=download&user=kff&projectname=15&date=today;正如我看到的,它从sql数据库查询数据,并在浏览器中以csv格式转储数据。当我在浏览器中使用这个简单的链接时,它工作得非常好。当我尝试使用python时,它会转储大小为0 Kb的文件。代码如下:

import os
import urllib
pp = os.path.join("path", "fileName")
urllib.urlretrieve ("urlLink", pp)

我是否应该使用wget来代替它或其他任何想法都会很有帮助。谢谢

你确定这是URL的结尾,没有什么不同吗?url的查询部分有一个用户,您可能必须登录该网站才能下载数据,并且在您的浏览器中登录?不,它甚至可以在新安装的浏览器上运行