Java 如何在hadoop中读取大小为3 GB的tiff文件

Java 如何在hadoop中读取大小为3 GB的tiff文件,java,hadoop,bufferedimage,tiff,jai,Java,Hadoop,Bufferedimage,Tiff,Jai,目前,我正在从事一个图像处理项目,在该项目中,我需要从大小为3到4 GB的tiff图像中提取特征。 我尝试使用BuffereImage和ImageIO读取该文件,但它们不支持tif格式,因此引发空异常。 然后我使用JAI尝试了它,但我无法读取该文件,并且引发了相同的null异常。 Hipi不支持Tiff格式。 我被卡住了,欢迎就如何阅读该文件提出任何建议。您可以使用我的库来阅读TIFF文件。但由于Java数组大小的限制,我不确定该大小的文件是否可以读入内存……在尝试构建mvn包时,我遇到了以下错

目前,我正在从事一个图像处理项目,在该项目中,我需要从大小为3到4 GB的tiff图像中提取特征。 我尝试使用BuffereImage和ImageIO读取该文件,但它们不支持tif格式,因此引发空异常。 然后我使用JAI尝试了它,但我无法读取该文件,并且引发了相同的null异常。 Hipi不支持Tiff格式。
我被卡住了,欢迎就如何阅读该文件提出任何建议。

您可以使用我的库来阅读TIFF文件。但由于Java数组大小的限制,我不确定该大小的文件是否可以读入内存……在尝试构建mvn包时,我遇到了以下错误:[错误][错误]处理POM时遇到了一些问题:[致命]com.twevemonkeys:twevemonkeys:3.4-SNAPSHOT:无法将工件org.sonatype.oss:oss parent:POM:9从/传输到中心():repo.maven.apache.org:名称解析暂时失败,“parent.relativePath”指向错误的本地POM@line 4,第13列首先,您不需要构建项目,您应该能够只依赖最新(目前为3.3.2)版本。我在签出干净的副本和本地构建时没有问题,因此您似乎遇到了网络问题(错误消息显示“名称解析暂时失败”,这可能是DNS问题,如果您再试一次,它可能会工作)。但是正如上面所说的,你不应该一开始就构建。PS:有问题的工件是,从这里开始它工作得很好。