Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 限制pycurl中的文本下载内容_Python_Pycurl - Fatal编程技术网

Python 限制pycurl中的文本下载内容

Python 限制pycurl中的文本下载内容,python,pycurl,Python,Pycurl,我想使用python中的curl(pycurl)下载站点内容。但我不希望这些网站的全部内容只是网站的一部分。我想减少下载全文的时间。谢谢 您应该在HTTP请求中设置,请参阅如何使用pycurl 注意:仅当您: 知道所需数据在结果中的位置的数据偏移量(以字节为单位) web服务器支持这一点 加载页面的延迟通常不在HTML的实际下载中——这通常非常快,因为HTML只不过是Unicode文本。除非一个页面上有大量的实际文本和标记,否则你不会节省太多。此外,为了获得页面的任何实际内容,您需要下载整个 就

我想使用python中的curl(pycurl)下载站点内容。但我不希望这些网站的全部内容只是网站的一部分。我想减少下载全文的时间。谢谢

您应该在HTTP请求中设置,请参阅如何使用
pycurl

注意:仅当您:

  • 知道所需数据在结果中的位置的数据偏移量(以字节为单位)
  • web服务器支持这一点

  • 加载页面的延迟通常不在HTML的实际下载中——这通常非常快,因为HTML只不过是Unicode文本。除非一个页面上有大量的实际文本和标记,否则你不会节省太多。此外,为了获得页面的任何实际内容,您需要下载整个


    就我个人而言,我会异步处理这个问题。是这类方法的一个更常见的建议。

    web请求不是这样工作的。你要一页,你就得到了那页。@Amber不,他们不是这样工作的。@Kimvais在一般意义上,是的,是这样的。有一些支持下载文件的某些字节偏移量,但这对于选择特定文本很少有用-它是为将文件下载分成块和/或恢复中断的下载而设计的。