Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/arduino/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop 用于处理400 GB+;10 GB增量_Hadoop - Fatal编程技术网

Hadoop 用于处理400 GB+;10 GB增量

Hadoop 用于处理400 GB+;10 GB增量,hadoop,Hadoop,我有400 GB的旧数据,每天将获得10 GB的增量数据。要处理整个数据(400 GB+10 GB(增量)),配置默认RF 3的Hadoop群集需要多少节点(Namenode和Datanode)、服务器容量和RAM?您好,请提供一个解决方案,以便我们可以更好地帮助您!我想知道什么是适合给定需求的集群配置。服务器2的存储。数据节点数为3。内存

我有400 GB的旧数据,每天将获得10 GB的增量数据。要处理整个数据(400 GB+10 GB(增量)),配置默认RF 3的Hadoop群集需要多少节点(Namenode和Datanode)、服务器容量和RAM?

您好,请提供一个解决方案,以便我们可以更好地帮助您!我想知道什么是适合给定需求的集群配置。服务器2的存储。数据节点数为3。内存