Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/ajax/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Ajax 如何不显示提取的链接和已删除的项目?_Ajax_Json_Hyperlink_Scrapy_Items - Fatal编程技术网

Ajax 如何不显示提取的链接和已删除的项目?

Ajax 如何不显示提取的链接和已删除的项目?,ajax,json,hyperlink,scrapy,items,Ajax,Json,Hyperlink,Scrapy,Items,这里是新手,在windows中运行scrapy。如何避免在命令窗口中显示提取的链接和爬网项目?我在“解析”部分找到了关于这个的评论linkhttp://doc.scrapy.org/en/latest/topics/commands.html,不确定是否相关,如果相关,如何应用。下面是部分代码的更多细节,从我的第二个Ajax请求开始(在第一个Ajax请求中,回调函数是“first_json_response”: “第二个_json_响应”是从第一个_json_响应中请求的结果中检索响应,以及加载

这里是新手,在windows中运行scrapy。如何避免在命令窗口中显示提取的链接和爬网项目?我在“解析”部分找到了关于这个的评论linkhttp://doc.scrapy.org/en/latest/topics/commands.html,不确定是否相关,如果相关,如何应用。下面是部分代码的更多细节,从我的第二个Ajax请求开始(在第一个Ajax请求中,回调函数是“first_json_response”:

“第二个_json_响应”是从第一个_json_响应中请求的结果中检索响应,以及加载新请求的数据。“meta”和“data”然后两者都用于定义需要爬网的项目。目前,元数据和链接显示在我提交代码的windows终端中。我想计算机在屏幕上显示它们会占用一些额外的时间,因此希望它们消失。我希望通过在批处理模式下运行scrapy,可以加快我漫长的爬网过程

谢谢!非常感谢您的评论和建议!

来自:

您可以使用–loglevel/-L命令行选项或使用log\u level设置来设置日志级别


因此,在您的
scray crawl etc
命令
-loglevel='ERROR'
中附加这些信息。这会使所有信息从命令行中消失,但我认为这不会加快速度。

在您的pipelines.py文件中,尝试使用以下内容:

import json

class JsonWriterPipeline(object):

    def __init__(self):
        self.file = open('items.jl', 'wb')

    def process_item(self, item, spider):
        line = json.dumps(dict(item)) + "\n"
        self.file.write(line)
        return item
这样,当您从spider类中生成一个条目时,它会将其打印到items.jl


希望这会有帮助。

这不起作用。正确的选项应该是:
--loglevel=LEVEL
-L LEVEL
。关于设置日志级别的文档也很糟糕。在settings.py中设置日志级别的正确方法是什么?@user1147688类似于此日志级别='ERROR'
import json

class JsonWriterPipeline(object):

    def __init__(self):
        self.file = open('items.jl', 'wb')

    def process_item(self, item, spider):
        line = json.dumps(dict(item)) + "\n"
        self.file.write(line)
        return item