Logstash 处理一个巨大的access.log文件

Logstash 处理一个巨大的access.log文件,logstash,Logstash,我有一个很大的access.log文件,其中包含大约6个月的数据和200K行;我使用grokdebug来确保行被正确过滤,等等;我将logstash的输出存储在Elastic Search v1.1.1中 我注意到的问题是,只有一个索引被创建(在我运行logstash代理的那天),其余的条目被忽略;我在logstash网站上读到,默认情况下每天有一个索引;但是我如何告诉logstash处理整个文件(并为每天创建相应的索引) 如有任何建议,将不胜感激;我已经阅读了文档,但找不到关于此的详细信息,或

我有一个很大的access.log文件,其中包含大约6个月的数据和200K行;我使用grokdebug来确保行被正确过滤,等等;我将logstash的输出存储在Elastic Search v1.1.1中

我注意到的问题是,只有一个索引被创建(在我运行logstash代理的那天),其余的条目被忽略;我在logstash网站上读到,默认情况下每天有一个索引;但是我如何告诉logstash处理整个文件(并为每天创建相应的索引)


如有任何建议,将不胜感激;我已经阅读了文档,但找不到关于此的详细信息,或者可能我找的位置不正确。

默认情况下,时间戳字段设置为接收日志的时间

要使用日志记录中的时间戳覆盖该记录,请使用