Java Hadoop日志文件分析
我想创建一个java应用程序。可部署在Hadoop上的,其用途如下:Java Hadoop日志文件分析,java,hadoop,Java,Hadoop,我想创建一个java应用程序。可部署在Hadoop上的,其用途如下: 我有很多来自不同服务器的较大日志文件(Tuxedo日志、Websphere日志和IIS日志) 我想分析这些大文件,以生成一个报告,报告中指出,从Tux,这许多错误,从Websphere,这许多是错误/警告等 因此,我需要借助有限的Hadoop知识及时获得帮助 大多数地图都减少了算法。使用相同类型的文件工作,而不是在我的情况下,日志文件来自不同的源(Tux、Websphere、IIS等) 在这种情况下,如何设计map()和
- 我有很多来自不同服务器的较大日志文件(Tuxedo日志、Websphere日志和IIS日志)
- 我想分析这些大文件,以生成一个报告,报告中指出,从Tux,这许多错误,从Websphere,这许多是错误/警告等
- 大多数地图都减少了算法。使用相同类型的文件工作,而不是在我的情况下,日志文件来自不同的源(Tux、Websphere、IIS等)
- 在这种情况下,如何设计map()和reduce()函数
- 我如何存储日志报告(例如:来自Tux的错误/警告,来自Websphere的错误/警告/信息)组合等
提前感谢此场景的答案是apache flume