elasticsearch,logstash,kibana,Logging,elasticsearch,Logstash,Kibana" /> elasticsearch,logstash,kibana,Logging,elasticsearch,Logstash,Kibana" />

Logging 日志存储输入文件-从桌面文件读取

Logging 日志存储输入文件-从桌面文件读取,logging,elasticsearch,logstash,kibana,Logging,elasticsearch,Logstash,Kibana,从桌面上的源文件读取日志时遇到问题。我当前的日志存储配置文件是: input { file { path => ["C:/users/Me/Desktop/Dum.txt"] } } output { stdout { } elasticsearch { host => localhost } } 我将输出流式传输到Kibana,它使用stdin{}配置正常工作 虚拟源文件(Dum.txt)是: 配置文件会运行,并且看起来它的稳定性没有问题 我还

从桌面上的源文件读取日志时遇到问题。我当前的日志存储配置文件是:

input 
{
  file 
  {
    path => ["C:/users/Me/Desktop/Dum.txt"]
  }
}

output 
{
  stdout { }
  elasticsearch { host => localhost }
}
我将输出流式传输到Kibana,它使用stdin{}配置正常工作

虚拟源文件(Dum.txt)是:

配置文件会运行,并且看起来它的稳定性没有问题

我还尝试使用CSV文件进行输入,运气也一样

谢谢你在这方面的帮助

(摘自问题评论)


我能够解决这个问题。流是打开的,但我必须用新数据保存文件,以便读取给麋鹿。需要设置AutoSave以确保更新文件并生成输出


只要文本文件以某种方式发生更改,例如添加一行或删除一行数据,Logstash代理/发货人就会接收更改并将其发送到Elasticsearch实例。从本质上讲,文件需要重写或附加到。要查看此内容,请手动从文件中选择“全部”,剪切文本,保存文件,将文本粘贴回文件,然后再次保存。如果您正在使用stdout,您将看到流发布到提示中

I能够解决此问题。流是打开的,但我必须用新数据保存文件,以便读取给麋鹿。需要设置AutoSave以确保更新文件并生成输出。抱歉,解决方案是什么?只要文本文件以某种方式发生更改,例如添加一行或删除一行数据,Logstash代理/发货人将获取更改并将其发送到您的Elasticsearch实例。从本质上讲,文件需要重写或附加到。要查看此内容,请手动从文件中选择“全部”,剪切文本,保存文件,将文本粘贴回文件,然后再次保存。如果您正在使用标准输出,您将看到流发布到提示符。
2014-05-20T17:42:49.694+0000 MyCompID Agent