Hadoop:如何计算实际文件大小?

Hadoop:如何计算实际文件大小?,hadoop,hdfs,Hadoop,Hdfs,我正在使用hadoop来存储文件。我想知道实际的文件大小 getFileSystem().getContentSummary(new Path(fileName)).getLength(); 它返回压缩文件的大小。我使用默认的hadoop编解码器压缩 如何计算实际文件大小?除非压缩编解码器支持将未压缩的大小存储在压缩文件的页眉/页脚中,否则无法计算未压缩的大小(除了执行流解压缩并通过类似dd的方式运行或在java中计算字节数) 例如GZip—文件的最后4个字节是未压缩的大小(以字节为单位)(假

我正在使用hadoop来存储文件。我想知道实际的文件大小

getFileSystem().getContentSummary(new Path(fileName)).getLength();
它返回压缩文件的大小。我使用默认的hadoop编解码器压缩


如何计算实际文件大小?

除非压缩编解码器支持将未压缩的大小存储在压缩文件的页眉/页脚中,否则无法计算未压缩的大小(除了执行流解压缩并通过类似dd的方式运行或在java中计算字节数)

例如GZip—文件的最后4个字节是未压缩的大小(以字节为单位)(假设不超过4个字节)