Scrapy 为什么我的刮痧总是告诉我;TCP连接超时“;

Scrapy 为什么我的刮痧总是告诉我;TCP连接超时“;,scrapy,Scrapy,您的网络出现问题或端口被阻止 同时检查您的设置是否存在配置错误。您可以发布您的蜘蛛代码、刮擦设置和控制台输出吗?您可以发布您的设置吗?您发布的代码是真实蜘蛛代码的摘录吗?您的start\u URL要么有第二个被剥离的URL,要么有语法错误。尝试使用start\u URL=[”http://www.dmoz.org/Computers/Programming/Languages/Python/Books/“]我们在这方面有什么进展吗?问题:假设问题是网络问题,如何解决?我的意思是:我的公司里有一个

您的网络出现问题或端口被阻止


同时检查您的设置是否存在配置错误。

您可以发布您的蜘蛛代码、刮擦设置和控制台输出吗?您可以发布您的设置吗?您发布的代码是真实蜘蛛代码的摘录吗?您的
start\u URL
要么有第二个被剥离的URL,要么有语法错误。尝试使用
start\u URL=[”http://www.dmoz.org/Computers/Programming/Languages/Python/Books/“]
我们在这方面有什么进展吗?问题:假设问题是网络问题,如何解决?我的意思是:我的公司里有一个代理人。我已经设置了代理,现在我可以在iternet上导航(通过浏览器)。所以我想Python也应该推出。。。。或者我必须通过代码定义代理吗?我的系统是ubuntu,它的端口是默认打开的。所以,现在我真的不知道“TCP连接超时:110:连接超时”。我在Windows 7上。在我的情况下,你是对的:我已经切换到另一个网络,它工作了。 DEBUG: Retrying (failed 2 times): TCP connection timed out: 110: Connection timed out.
#!/usr/bin/python

from scrapy.spider import BaseSpider
from scrapy.selector import HtmlXPathSelector

class DmozSpider(BaseSpider):
    name = "dmoz"
    allowed_domains = ["dmoz.org"]
    start_urls = ["http://www.dmoz.org/Computers/Programming/Languages/Python/Books/"]

    def parse(self, response):
        hxs = HtmlXPathSelector(response)
        sites = hxs.select('//ul/li')
        for site in sites:
            title = site.select('a/text()').extract()
            link = site.select('a/@href').extract()
            desc = site.select('text()').extract()
            print title, link, desc