elasticsearch 将标准件和标准件装运至Logstash,elasticsearch,logstash,kibana,filebeat,elasticsearch,Logstash,Kibana,Filebeat" /> elasticsearch 将标准件和标准件装运至Logstash,elasticsearch,logstash,kibana,filebeat,elasticsearch,Logstash,Kibana,Filebeat" />

elasticsearch 将标准件和标准件装运至Logstash

elasticsearch 将标准件和标准件装运至Logstash,elasticsearch,logstash,kibana,filebeat,elasticsearch,Logstash,Kibana,Filebeat,我们有一系列服务,通过docker容器部署在Mesos上,这些服务记录到stdout和stderr。我们现在正在引进麋鹿,因此需要将这些日志数据发送到Logstash 我正在考虑的一个解决方案是使用一个包装器进程来启动服务进程,捕获stdout和stderr并将其写入一个文件(随着时间的推移会被截断),然后将该文件发送到LogStash。感觉我可能在重新发明一个轮子思想,有没有更直接的方法来实现同样的事情 我写的这篇文章非常适合我的用例:你不能使用重定向(>)直接写入文件吗?可以。但是我也希望日

我们有一系列服务,通过docker容器部署在Mesos上,这些服务记录到stdout和stderr。我们现在正在引进麋鹿,因此需要将这些日志数据发送到Logstash


我正在考虑的一个解决方案是使用一个包装器进程来启动服务进程,捕获stdout和stderr并将其写入一个文件(随着时间的推移会被截断),然后将该文件发送到LogStash。感觉我可能在重新发明一个轮子思想,有没有更直接的方法来实现同样的事情

我写的这篇文章非常适合我的用例:

你不能使用重定向(>)直接写入文件吗?可以。但是我也希望日志输出继续在stdout和stderr上输出,因为Mesos捕捉到了这一点。另外,如果我这样做,什么会截断文件?此外,我们还使用结构化日志记录,以便在子进程在重新启动之前死亡的情况下,包装进程可以使用我们的结构进行日志记录。但我明白你为什么要用包装纸谢谢分享