elasticsearch 如何通过弹性搜索将性能测试日志推送到kibana,elasticsearch,logstash,kibana,hp-performance-center,elasticsearch,Logstash,Kibana,Hp Performance Center" /> elasticsearch 如何通过弹性搜索将性能测试日志推送到kibana,elasticsearch,logstash,kibana,hp-performance-center,elasticsearch,Logstash,Kibana,Hp Performance Center" />

elasticsearch 如何通过弹性搜索将性能测试日志推送到kibana

elasticsearch 如何通过弹性搜索将性能测试日志推送到kibana,elasticsearch,logstash,kibana,hp-performance-center,elasticsearch,Logstash,Kibana,Hp Performance Center,是否有可能将绩效中心的分析报告推送到Logstash,并在Kibana中可视化?我只是想自动检查每个vuser日志文件,然后将错误推送到ELK堆栈。如何通过脚本检索文件并使其自动化。在这方面我无法得到任何指导,因为我需要自动读取每个vuser_日志文件。Filebeat应该是完成您提到的任务的工具 要自动读取您在文件(可能是日志文件)中写入的条目,您只需要一个可以是Filebeat的shipper工具(它与ELK stack集成得很好。Logstash也可以做同样的事情,但这很重,需要JVM)

是否有可能将绩效中心的分析报告推送到Logstash,并在Kibana中可视化?我只是想自动检查每个vuser日志文件,然后将错误推送到ELK堆栈。如何通过脚本检索文件并使其自动化。在这方面我无法得到任何指导,因为我需要自动读取每个vuser_日志文件。

Filebeat应该是完成您提到的任务的工具

要自动读取您在文件(可能是日志文件)中写入的条目,您只需要一个可以是Filebeat的shipper工具(它与ELK stack集成得很好。Logstash也可以做同样的事情,但这很重,需要JVM)

要在麋鹿堆中执行此操作,您需要以下内容:

  • Filebeat应该在主应用程序运行的“所有”实例上设置,并生成日志。 Filebeat是一个简单的轻量级托运工具,可以读取日志条目,然后将它们发送到Logstash
  • 设置一个Logstash(即ELK的L)实例,该实例将接收来自Filebeat的事件。Logstash将向弹性搜索发送数据
  • 设置一个弹性搜索的实例(即麋鹿的E),用于存储您的数据
  • 设置一个Kibana的实例(即麋鹿的K)。Kibana是通过Rest调用查看弹性搜索并与之交互的前端工具
  • 有关上述设置,请参阅以下链接:


    这是可能的,事实上,这就是麋鹿堆栈的用途。您可以使用
    beats
    将日志从任何主机推送到logstash。如果您的日志是基于文件的,那么请查看
    filebeat
    性能中心到底是什么?日志文件的形式是什么?