Hadoop文件拆分

Hadoop文件拆分,hadoop,bigdata,Hadoop,Bigdata,我想把一个大文件放到Hadoop文件系统中。它将被拆分为64MB(或128mb)的块,这些块很可能会分布在集群中的不同节点上,尽管它们属于特定的文件 我知道hadoop遵循无共享范式,所以内存是不共享的。如果某个节点想要详细描述初始文件,它会将每个64mb(或128mb)的块从发送不同块的节点复制到其本地内存 ps:当一个文件被分割成64 mb(或128mb)的块时,它只是以64 mb(或128mb)的倍数被截断,或者应用了一些其他过程?对不起,我不理解这个问题。将您的文件除以HDFS块大小(并

我想把一个大文件放到Hadoop文件系统中。它将被拆分为64MB(或128mb)的块,这些块很可能会分布在集群中的不同节点上,尽管它们属于特定的文件

我知道hadoop遵循无共享范式,所以内存是不共享的。如果某个节点想要详细描述初始文件,它会将每个64mb(或128mb)的块从发送不同块的节点复制到其本地内存


ps:当一个文件被分割成64 mb(或128mb)的块时,它只是以64 mb(或128mb)的倍数被截断,或者应用了一些其他过程?

对不起,我不理解这个问题。将您的文件除以HDFS块大小(并取整),那么这就是简单截断的块数。在某些情况下,行被剪切到不同的块。