Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/wix/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
<img src="//i.stack.imgur.com/RUiNP.png" height="16" width="18" alt="" class="sponsor tag img">elasticsearch 如何安排此日志存储配置文件每1分钟运行一次? 问题:_<img Src="//i.stack.imgur.com/RUiNP.png" Height="16" Width="18" Alt="" Class="sponsor Tag Img">elasticsearch_Logstash_Kibana_Logstash Configuration - Fatal编程技术网 elasticsearch 如何安排此日志存储配置文件每1分钟运行一次? 问题:,elasticsearch,logstash,kibana,logstash-configuration,elasticsearch,Logstash,Kibana,Logstash Configuration" /> elasticsearch 如何安排此日志存储配置文件每1分钟运行一次? 问题:,elasticsearch,logstash,kibana,logstash-configuration,elasticsearch,Logstash,Kibana,Logstash Configuration" />

elasticsearch 如何安排此日志存储配置文件每1分钟运行一次? 问题:

elasticsearch 如何安排此日志存储配置文件每1分钟运行一次? 问题:,elasticsearch,logstash,kibana,logstash-configuration,elasticsearch,Logstash,Kibana,Logstash Configuration,1)如何运行此配置文件每1分钟运行一次。 (我尝试使用schedule=>“****”和sincedb_write_interval=>“60秒”) 2)如何保持接受stmt的行数 (我使用了count++但不起作用) 这是我的配置文件: 预期产量 预期的输出是给出计数并每分钟自动运行此配置文件。我不明白您为什么希望此配置“每分钟运行一次”。一旦logstash启动,文件输入插件就“从文件中流式处理事件,通常是通过跟踪它们”。sincedb是一个文件,它保存了文件中被读取的部分。好的,是的

1)如何运行此配置文件每1分钟运行一次。 (我尝试使用schedule=>“****”和sincedb_write_interval=>“60秒”)

2)如何保持接受stmt的行数 (我使用了count++但不起作用)


这是我的配置文件:



预期产量
预期的输出是给出计数并每分钟自动运行此配置文件。

我不明白您为什么希望此配置“每分钟运行一次”。一旦logstash启动,文件输入插件就“从文件中流式处理事件,通常是通过跟踪它们”。sincedb是一个文件,它保存了文件中被读取的部分。好的,是的,我知道了。没有必要这样做..感谢我的要求:-我需要在日志文件中遇到模式时生成警报,它应该生成警报+它应该停止在那里(不需要解析整个日志文件),如果我从日志中纠正了这个错误,它应该立即被反射回kibana,然后它再次开始解析文件的其余部分。我认为这在logstash中是不可行的。至少我不知道该怎么做。你能推荐一下如何使用麋鹿贮藏来实现这一点吗
 input
 {
 generator { count => 1 }

      file 
    {
        path => "C:/ELK-Stack/log files/SAPInterface.log"
start_position => "beginning"
sincedb_path => "C:\ELK-Stack\LG\logstash\data\plugins\inputs\file\.sincedb"
sincedb_write_interval => "60 sec"
      }
 }    
filter 
{
    grok
{
  match => [
      "message",
      "%{TIMESTAMP_ISO8601:logsimestamp}%{SPACE}%{WORD:type}%{SPACE}\[%{DATA:ERROR}\]%{SPACE}%{INT:INT}:%{WORD:type2}%{SPACE}%{WORD:type3}%{SPACE}%{WORD:type4}"
    ]

    }
 if "_grokparsefailure" in [tags] 
    {
            drop { }
        }

 if "2000023" in [INT]
{
 mutate 
    {
      add_tag => ["countthetimes"]
count++
}
}


 }
output
 {

     stdout
 {
codec => json_lines
}

elasticsearch 
{
    hosts => ["localhost:9200"]
    index => "cs_00000000000000"   
  }
}