Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/jquery-ui/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Java 泰伦德>;tFileUnarchive上的NullPointerException_Java_Talend - Fatal编程技术网

Java 泰伦德>;tFileUnarchive上的NullPointerException

Java 泰伦德>;tFileUnarchive上的NullPointerException,java,talend,Java,Talend,我正在尝试使用Talend Open Studio 6.1.1构建一个导入工具,该工具将导入各种以制表符分隔的.txt文件,这些文件已压缩为ZIP文件 为了实现这一点,我使用了tFileUnarchive组件。此组件的存档文件设置为“context.RECORD1”,其中RECORD1是ZIP的文件路径 因此,提取目录设置为“context.RECORD1.substring(0,context.RECORD1.lastIndexOf(“/”)” 然后,使用触发器>运行If将该组件连接到各种tF

我正在尝试使用Talend Open Studio 6.1.1构建一个导入工具,该工具将导入各种以制表符分隔的.txt文件,这些文件已压缩为ZIP文件

为了实现这一点,我使用了tFileUnarchive组件。此组件的存档文件设置为“context.RECORD1”,其中RECORD1是ZIP的文件路径

因此,提取目录设置为“context.RECORD1.substring(0,context.RECORD1.lastIndexOf(“/”)”

然后,使用触发器>运行If将该组件连接到各种tFileInputDelimited组件。例如,如果运行,则中的条件为:

globalMap.get("tFileExist_1_FILENAME").toString().contains("VAM")
提取名称中包含“VAM”的选项卡分隔文件之一(在ZIP中)。但是,作业失败,并出现以下错误输出:

Exception in component tFileUnarchive_2
java.lang.NullPointerException
    at map_2016.map2016_0_1.map2016.tFileUnarchive_2Process(map2016.java:2027)
    at map_2016.map2016_0_1.map2016.tPostgresqlConnection_1Process(map2016.java:1764)
    at map_2016.map2016_0_1.map2016.runJobInTOS(map2016.java:48371)
    at map_2016.map2016_0_1.map2016.main(map2016.java:48186)
需要注意的是:我没有使用原始ZIP中包含的所有以制表符分隔的.txt文件,因为其中一些文件与我的目的无关

任何帮助都将不胜感激

globalMap.get(“tFileExist\u 1\u FILENAME”).toString()包含(“VAM”)

globalMap或
globalMap.get(…)
的结果或
.toString()
的返回为空

另请参见:

globalMap.get(“tFileExist\u 1\u FILENAME”).toString()包含(“VAM”)

globalMap或
globalMap.get(…)
的结果或
.toString()
的返回为空


另请参见:

可能重复的可能重复的感谢,回答了问题!谢谢,这回答了问题!