Hadoop 配置flume以从不同目录读取日志

Hadoop 配置flume以从不同目录读取日志,hadoop,file-transfer,flume,Hadoop,File Transfer,Flume,不同的应用程序正在将日志写入不同的目录结构。我想阅读这些日志并将其放入接收器(可以是hadoop或物理文件)。 flume如何为单个代理支持多个源?单个代理是否可以有多个源? 有人能在这方面指导我吗 谢谢和问候 Chhaya使用多个源配置flume agent-每个日志文件一个源。它们可能是假脱机文件源类型。请注意,当源获取文件时,它不需要更改-您需要配置源以确保这一点 然后,这些源可以转到具有单个接收器的单个通道。谢谢您的回复。我将尝试一下。我需要多个接收器

不同的应用程序正在将日志写入不同的目录结构。我想阅读这些日志并将其放入接收器(可以是hadoop或物理文件)。 flume如何为单个代理支持多个源?单个代理是否可以有多个源? 有人能在这方面指导我吗

谢谢和问候
Chhaya

使用多个源配置flume agent-每个日志文件一个源。它们可能是假脱机文件源类型。请注意,当源获取文件时,它不需要更改-您需要配置源以确保这一点


然后,这些源可以转到具有单个接收器的单个通道。

谢谢您的回复。我将尝试一下。我需要多个接收器