Map Reduce hadoop中Java split函数的奇怪行为

Map Reduce hadoop中Java split函数的奇怪行为,java,string,hadoop,split,Java,String,Hadoop,Split,我正在尝试使用split()函数拆分字符串。现在我的代码是这样的: String s = "from1x1"; String [] parts = s.split("x"); 现在,当我使用下面的代码输出结果时,它显示输出“from1” 但当我尝试使用下面的代码输出结果时,它抛出异常java.lang.ArrayIndexOutOfBoundsException:1 System.out.println(parts[1]); 这是最奇怪的事情,因为这个错误不是在我编写简单java程序

我正在尝试使用
split()
函数拆分字符串。现在我的代码是这样的:

String s = "from1x1";
String [] parts = s.split("x");  
现在,当我使用下面的代码输出结果时,它显示输出“from1”

但当我尝试使用下面的代码输出结果时,它抛出异常
java.lang.ArrayIndexOutOfBoundsException:1

System.out.println(parts[1]);  

这是最奇怪的事情,因为这个错误不是在我编写简单java程序时抛出的,也不是在hadoop的Map函数中抛出的。但只有减少hadoop的功能,才会发生此错误。有人知道这里有什么问题吗?

两个系统输出和“字符串”之间一定有一些代码。。。分割(“x”)`。。。请提供复制此行为的最小示例代码。。。您发布的代码不能引发该异常…两个输出之间没有代码,仍然不可能。要么是发生了其他事情,要么你的输入看起来不像你期望的那样。但是上面的代码不会导致这个错误。更确切地说:给定您的输入,没有其他答案可以给出。换言之:我们需要一个真正的解决方案。向我们展示引发异常的生产代码,而不是您对异常的抽象!
System.out.println(parts[1]);