elasticsearch 使用Kafka和ELK堆栈进行集中式日志记录
有50多个Java应用程序(它们不是微服务,所以我们不必担心服务的多个实例)。现在,我的架构师设计了一个解决方案来获取日志文件,并将其输入卡夫卡主题,然后从卡夫卡将其输入logstash,并将其推送到elastic search,以便我们可以在kibana中查看日志。现在我对卡夫卡和麋鹿队还不熟悉。有人能给我指出一个正确的方向吗。我了解到Log4J和SLF4J可以配置为将日志推送到kafka主题。 1.现在如何从卡夫卡消费并将其加载到logstash?我必须写一个卡夫卡消费者,还是我们可以通过配置来完成? 2.logstash将如何将日志提供给elastic search? 3.如何区分所有50个应用程序日志,是否必须为每个应用程序创建主题elasticsearch 使用Kafka和ELK堆栈进行集中式日志记录,elasticsearch,apache-kafka,logstash,kibana,elasticsearch,Apache Kafka,Logstash,Kibana,有50多个Java应用程序(它们不是微服务,所以我们不必担心服务的多个实例)。现在,我的架构师设计了一个解决方案来获取日志文件,并将其输入卡夫卡主题,然后从卡夫卡将其输入logstash,并将其推送到elastic search,以便我们可以在kibana中查看日志。现在我对卡夫卡和麋鹿队还不熟悉。有人能给我指出一个正确的方向吗。我了解到Log4J和SLF4J可以配置为将日志推送到kafka主题。 1.现在如何从卡夫卡消费并将其加载到logstash?我必须写一个卡夫卡消费者,还是我们可以通过配
我提出了商业问题,现在我需要一步一步的专家建议提前感谢。Logstash有一个输入和一个输出,因此这是Logstash端的配置。您可以使用log4j端的配置来区分应用程序(尽管使用许多主题是另一种可能性)。基本上,您的架构师为您设计的内容可以根据其功能(在架构级别)分为两个主要组件