Ajax 如何不显示提取的链接和已删除的项目?
这里是新手,在windows中运行scrapy。如何避免在命令窗口中显示提取的链接和爬网项目?我在“解析”部分找到了关于这个的评论linkhttp://doc.scrapy.org/en/latest/topics/commands.html,不确定是否相关,如果相关,如何应用。下面是部分代码的更多细节,从我的第二个Ajax请求开始(在第一个Ajax请求中,回调函数是“first_json_response”: “第二个_json_响应”是从第一个_json_响应中请求的结果中检索响应,以及加载新请求的数据。“meta”和“data”然后两者都用于定义需要爬网的项目。目前,元数据和链接显示在我提交代码的windows终端中。我想计算机在屏幕上显示它们会占用一些额外的时间,因此希望它们消失。我希望通过在批处理模式下运行scrapy,可以加快我漫长的爬网过程 谢谢!非常感谢您的评论和建议!来自: 您可以使用–loglevel/-L命令行选项或使用log\u level设置来设置日志级别Ajax 如何不显示提取的链接和已删除的项目?,ajax,json,hyperlink,scrapy,items,Ajax,Json,Hyperlink,Scrapy,Items,这里是新手,在windows中运行scrapy。如何避免在命令窗口中显示提取的链接和爬网项目?我在“解析”部分找到了关于这个的评论linkhttp://doc.scrapy.org/en/latest/topics/commands.html,不确定是否相关,如果相关,如何应用。下面是部分代码的更多细节,从我的第二个Ajax请求开始(在第一个Ajax请求中,回调函数是“first_json_response”: “第二个_json_响应”是从第一个_json_响应中请求的结果中检索响应,以及加载
因此,在您的
scray crawl etc
命令-loglevel='ERROR'
中附加这些信息。这会使所有信息从命令行中消失,但我认为这不会加快速度。在您的pipelines.py文件中,尝试使用以下内容:
import json
class JsonWriterPipeline(object):
def __init__(self):
self.file = open('items.jl', 'wb')
def process_item(self, item, spider):
line = json.dumps(dict(item)) + "\n"
self.file.write(line)
return item
这样,当您从spider类中生成一个条目时,它会将其打印到items.jl
希望这会有帮助。这不起作用。正确的选项应该是:
--loglevel=LEVEL
或-L LEVEL
。关于设置日志级别的文档也很糟糕。在settings.py中设置日志级别的正确方法是什么?@user1147688类似于此日志级别='ERROR'
import json
class JsonWriterPipeline(object):
def __init__(self):
self.file = open('items.jl', 'wb')
def process_item(self, item, spider):
line = json.dumps(dict(item)) + "\n"
self.file.write(line)
return item