Logging 如何在分布式系统中按“起点”对日志进行分组
我有一个有很多机器的分布式系统,每台机器都会生成日志,并且可以调用其他机器中的服务,这些机器也会生成日志 我使用的是集中式日志服务Logentries,我拥有的是:Logging 如何在分布式系统中按“起点”对日志进行分组,logging,distributed,distributed-computing,logentries,Logging,Distributed,Distributed Computing,Logentries,我有一个有很多机器的分布式系统,每台机器都会生成日志,并且可以调用其他机器中的服务,这些机器也会生成日志 我使用的是集中式日志服务Logentries,我拥有的是: 12:00:00 Server1 apache log 12:00:01 Server1 application log 12:00:01 Server1 apache log 12:00:02 Server2 Some service log 12:00:02 Server1 application log 12:00:03 Se
12:00:00 Server1 apache log
12:00:01 Server1 application log
12:00:01 Server1 apache log
12:00:02 Server2 Some service log
12:00:02 Server1 application log
12:00:03 Server2 Some service log
但我真正想要的是:
12:00:00 Server1 apache
12:00:01 Server1 application log
12:00:02 Server2 Some service log
12:00:01 Server1 apache
12:00:02 Server1 application log
12:00:03 Server2 Some service log
这些日志按apache日志的起点分组
有什么解决办法吗?我可以停止使用日志条目并使用其他日志管理SaaS。这可以通过使用ELK stack轻松完成,ELK stack具有强大的分析功能。您可以从github自行安装,也可以使用Logz.io中的ELK-as-a-service免责声明:我为Logz.io工作
在主发现页面中,您可以按主机对事件进行排序。这将创建您想要的结果。您的日志中没有此信息,因此无法根据它进行分组。您可以生成一个ID,可能是一个,并将其与其他每条消息一起记录。这样您就知道了执行路径
我不确定您的日志是如何发送到集中式系统的,但如果是异步的,您还需要为它提供一个,因为它们到达中央服务器的顺序可能会改变。Splunk Storm和Loggly都是基于云的集中式日志SaaS产品。对于以下两种情况,采用这种解决方案的原因是相同的: 在同一位置查看所有日志。 服务器关闭时不要丢失日志。 能够搜索您的日志。 花时间开发自己的产品,而不是日志管理解决方案。 根据我自己对这些类型产品的调查: Splunk Storm在云中提供专用硬件。Loggly是真正的多租户。 Loggly允许您选择帐户范围的保留期。狂风暴雨不会。 在Splunk Storm中,您自己的日志数据中的临时突发将减慢索引速度。另一个客户的突发事件将使您的索引速度缓慢。 为什么我不选择他们中的任何一个: 无自定义保留 您的所有数据都在一个地方销售有关仪表盘、多种产品等的期货 没有单一安装
免责声明:我在OpsBunker伐木工人公司工作。我们将在今年晚些时候发布测试版。我鼓励您访问我们的网站www.opsbunker.com,了解更多关于差异的信息,以及我们正在建设的项目。不会。按主机对事件进行排序将使服务器1位于顶部,服务器2位于底部,这不是问题所在,请仔细阅读