Apache Flume:没有抛出错误,但Flume无法完全传输文件

Apache Flume:没有抛出错误,但Flume无法完全传输文件,apache,hadoop,flume,Apache,Hadoop,Flume,在过去的2-3周里,我一直在修水槽。我面临着一个我不知道如何解决的新局面 流:使用基本流,spoolDir->fileChannel->HDFS 在.conf文件中没有设置额外的参数 我尝试传输的文件大小:1.4GB 情况:代理启动正常,文件传输开始正常,源中的文件重命名为。已完成,完整文件未传输到HDFS,未引发任何错误/异常。我多次运行同一个临时程序,我发现在1.4个Gig中只有约169Mb被转移。看起来很奇怪 有什么建议吗?有什么解决办法吗?有什么假设吗?你等了多久? 给它一个小时,你可能

在过去的2-3周里,我一直在修水槽。我面临着一个我不知道如何解决的新局面

流:使用基本流,spoolDir->fileChannel->HDFS

在.conf文件中没有设置额外的参数

我尝试传输的文件大小:1.4GB

情况:代理启动正常,文件传输开始正常,源中的文件重命名为。已完成,完整文件未传输到HDFS,未引发任何错误/异常。我多次运行同一个临时程序,我发现在1.4个Gig中只有约169Mb被转移。看起来很奇怪

有什么建议吗?有什么解决办法吗?有什么假设吗?

你等了多久? 给它一个小时,你可能会看到一些东西

您可能有一个损坏的文件通道,需要一些时间来清理它


顺便说一句,什么版本的Flume?

尝试向文件中添加更多数据,然后等待一段时间。日志里有什么有趣的东西吗


还要确保HDF上有足够的空间。

您能显示配置吗?我们使用以下流程:spoolDir->AvroSinks(2)->AvroSource(2)->HDFSSink(2)conf:Tier1:spool\u source\u batchsize=1000 avro\u sinks\u batchsize=500 channel\u capacity=1000000中的非默认参数Tier2:HDFS\u sinks\u batchsize=500 channel\u capacity=1000000我为代理配置的批量大小/容量肯定有问题。你能不能告诉我批量大小的方法哪里出了问题。谢谢我正在使用cdh4 flume ng,我等了一段时间,但我没有看到任何文件传输发生,我会再次交叉检查基本上我观察到的是,当我们将批量大小和通道容量调整为默认值以外的其他值时,我们遇到了这个问题,默认值文件传输得很好。我们使用的优化参数值是:spool\u source\u batchsize=1000 avro\u sinks\u batchsize=500 channel\u capacity=1000000 hdfs\u sinks\u batchsize=500我哪里出错了?基本上我观察到的是,当我们将批量大小和通道容量优化为默认值以外的其他值时,我们遇到了这个问题,使用默认值,文件可以正常传输。我们使用的优化参数值是:spool\u source\u batchsize=1000 avro\u sinks\u batchsize=500 channel\u capacity=1000000 hdfs\u sinks\u batchsize=500我哪里出错了?