Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop 使用twitter数据进行分析_Hadoop_Apache Spark_Flume_Flume Twitter - Fatal编程技术网

Hadoop 使用twitter数据进行分析

Hadoop 使用twitter数据进行分析,hadoop,apache-spark,flume,flume-twitter,Hadoop,Apache Spark,Flume,Flume Twitter,flume-twitter.conf 如果我想从合并在一家公司下的多个网站获取日志文件,并且所有网站都有自己的网站,我将如何将4个重要密钥(consumerkey、consumer secret、access token、access secret等)添加到flume-twitter.conf中,以便我使用不同的关键字对所有合并的公司网站进行分析。?谢谢你的帮助 相反,您可以使用一个键启动4个flume代理F1、F2、F3和F4。然后,他们四个都将数据发送给收听avro的第五个flume代理。

flume-twitter.conf


如果我想从合并在一家公司下的多个网站获取日志文件,并且所有网站都有自己的网站,我将如何将4个重要密钥(consumerkey、consumer secret、access token、access secret等)添加到flume-twitter.conf中,以便我使用不同的关键字对所有合并的公司网站进行分析。?谢谢你的帮助

相反,您可以使用一个键启动4个flume代理F1、F2、F3和F4。然后,他们四个都将数据发送给收听avro的第五个flume代理。在第五个代理中进行分析逻辑。