Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/334.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/cocoa/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 网络刮刀赢得';不要转到正确的页面_Python_Beautifulsoup_Scrapy - Fatal编程技术网

Python 网络刮刀赢得';不要转到正确的页面

Python 网络刮刀赢得';不要转到正确的页面,python,beautifulsoup,scrapy,Python,Beautifulsoup,Scrapy,所以我一直想去拿投标名单。但是,读取的数据始终来自以下主页:。我试过用漂亮的汤和刮痧来做这个,但没有效果。有什么手势吗?当我卷曲第一个url时,它也会加载主页数据。 代码: 只需点击,我就被困在等待出价加载。。。这是一个网站问题吗 您是否收到任何错误消息?您的问题不太详细有时无法正确加载,但大多数情况下仍会出现。我没有收到任何错误消息,我只是想能够抓取建筑投标的数据,但每次我使用ofcc的链接,它都会转到基于资格的RFQ,我不确定这是否可以只用Beautiful Soup来完成。您可以尝试使用S

所以我一直想去拿投标名单。但是,读取的数据始终来自以下主页:。我试过用漂亮的汤和刮痧来做这个,但没有效果。有什么手势吗?当我卷曲第一个url时,它也会加载主页数据。 代码:

只需点击,我就被困在等待出价加载。。。这是一个网站问题吗


您是否收到任何错误消息?您的问题不太详细

有时无法正确加载,但大多数情况下仍会出现。我没有收到任何错误消息,我只是想能够抓取建筑投标的数据,但每次我使用ofcc的链接,它都会转到基于资格的RFQ,我不确定这是否可以只用Beautiful Soup来完成。您可以尝试使用Selenium之类的工具,因为您可能需要加载该页面,然后手动单击“施工投标”链接。获取该链接并将其加载到匿名窗口会使其始终加载“基于资格的RFQ”作为默认选择。您可以发布用于执行此操作的代码吗?导入scrapy类QuotesSpider(scrapy.Spider):name=“quotes”def start_请求(self):url=[“”,]对于url中的url:yield scrapy.Request(url=url,callback=self.parse)def parse(self,response):page=response.url.split(“/”[-2]文件名=”构造%s.html'%page,打开(文件名,'wb')为f:f.write(response.body)self.log('保存的文件%s'%filename')。您可以将此添加到您的问题中吗。。。
    import scrapy

class QuotesSpider(scrapy.Spider):
name = "quotes"

def start_requests(self):
    urls = [
        'http://ofcc.ohio.gov/Opportunities2#lt-126679-construction-bids',
    ]
    for url in urls:
        yield scrapy.Request(url=url, callback=self.parse)

def parse(self, response):
    page = response.url.split("/")[-2]
    filename = 'construction%s.html' % page
    with open(filename, 'wb') as f:
        f.write(response.body)
    self.log('Saved file %s' % filename)