Hadoop 为什么即使文件大小不是64MB,块文件也会被分割?

Hadoop 为什么即使文件大小不是64MB,块文件也会被分割?,hadoop,block,input-split,Hadoop,Block,Input Split,我正在使用flume将twitter数据下载到hdfs中。虽然我的数据超过2GB,但我的区块文件拆分小于64MB。 i、 e.第一个文件为300KB,第二个文件为566KB。 为什么会发生这种情况?这是因为您的水槽配置 阅读,您必须设置hdfs.rollInterval或hdfs.rollSize

我正在使用flume将twitter数据下载到hdfs中。虽然我的数据超过2GB,但我的区块文件拆分小于64MB。 i、 e.第一个文件为300KB,第二个文件为566KB。
为什么会发生这种情况?

这是因为您的水槽配置

阅读,您必须设置hdfs.rollIntervalhdfs.rollSize