Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/performance/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/file/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Performance mapr中的大量小文件_Performance_File_Hadoop_Metadata_Mapr - Fatal编程技术网

Performance mapr中的大量小文件

Performance mapr中的大量小文件,performance,file,hadoop,metadata,mapr,Performance,File,Hadoop,Metadata,Mapr,您好,MapR是否支持大量(400万)小文件(每个20KB)它能管理这些文件的元数据吗?如果我想运行一个mapreduce来解析这些文件中的每一个,那么一个5节点(每个节点:32GBRAM,8核)集群的性能会如何呢。改进性能的建议是什么?这个问题也在answers.mapr.com上提出,并在那里得到了回答。请看

您好,MapR是否支持大量(400万)小文件(每个20KB)它能管理这些文件的元数据吗?如果我想运行一个mapreduce来解析这些文件中的每一个,那么一个5节点(每个节点:32GBRAM,8核)集群的性能会如何呢。改进性能的建议是什么?

这个问题也在answers.mapr.com上提出,并在那里得到了回答。请看