Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/linux/24.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/dart/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Linux 如何将标准数据从服务中放入日志库_Linux_<img Src="//i.stack.imgur.com/RUiNP.png" Height="16" Width="18" Alt="" Class="sponsor Tag Img">elasticsearch_Logstash_Elastic Stack - Fatal编程技术网 elasticsearch,logstash,elastic-stack,Linux,elasticsearch,Logstash,Elastic Stack" /> elasticsearch,logstash,elastic-stack,Linux,elasticsearch,Logstash,Elastic Stack" />

Linux 如何将标准数据从服务中放入日志库

Linux 如何将标准数据从服务中放入日志库,linux,elasticsearch,logstash,elastic-stack,Linux,elasticsearch,Logstash,Elastic Stack,据我所知,这里也提出了类似的问题: ,但我想概括一下这个问题 我目前配置的是Linux虚拟机上的基本ELK堆栈(elasticSearch、logstash、kibana),我想向logstash提供一些标准输出,以便从文件系统中删除日志文件,从而不占用磁盘空间 例如,我如何从Kibana中取出std,并将其直接输入Logstash 任何指向正确方向的指针都将不胜感激。这是个坏主意。如果你把Kibana的stdout连接到Logstash的stdin,如果你重启Kibana,你必须重启Logst

据我所知,这里也提出了类似的问题: ,但我想概括一下这个问题

我目前配置的是Linux虚拟机上的基本ELK堆栈(elasticSearch、logstash、kibana),我想向logstash提供一些标准输出,以便从文件系统中删除日志文件,从而不占用磁盘空间

例如,我如何从Kibana中取出std,并将其直接输入Logstash


任何指向正确方向的指针都将不胜感激。

这是个坏主意。如果你把Kibana的stdout连接到Logstash的stdin,如果你重启Kibana,你必须重启Logstash,反之亦然。此外,如果Logstash的管道堵塞(例如,因为下游主机不可用),管道的缓冲区最终将填满,并且将其日志写入stdout的进程将被阻塞(如果其日志记录是同步的;否则,您将只看到日志消息被丢弃在地板上)


我建议您使用基于磁盘的日志记录,但要积极地旋转文件。

我最终将Kibana stdout重定向到logstash配置中指定的tcp服务器。重新启动Kibana本身时未引起任何问题。我只是在修补尚未在生产中使用的堆栈。现在我们已经过了两年,您还会推荐这种解决方案吗?您是否发现任何问题或瓶颈?