Apache spark 可以增加火花壳输出字符限制吗

Apache spark 可以增加火花壳输出字符限制吗,apache-spark,Apache Spark,在spark shell中运行代码时,将小输出/示例直接打印在shell中,而不是将输出放在文件中,这通常很方便 默认情况下,shell将在给定字符数(相当小)后截断此类输出。有没有办法增加这个字符限制?我正在运行Spark 1.2 感谢您阅读您所说的“输出”是什么意思 如果要打印n行RDD请使用take(): 根据,此函数“返回一个包含数据集前n个元素的数组。请注意,这当前不是并行执行的。相反,驱动程序会计算所有元素。”您所做的就是我的意思的一个示例。有时它只打印一个操作的结果。我通常会做一些

在spark shell中运行代码时,将小输出/示例直接打印在shell中,而不是将输出放在文件中,这通常很方便

默认情况下,shell将在给定字符数(相当小)后截断此类输出。有没有办法增加这个字符限制?我正在运行Spark 1.2

感谢您阅读

您所说的“输出”是什么意思

如果要打印n行
RDD
请使用
take()


根据,此函数“返回一个包含数据集前n个元素的数组。请注意,这当前不是并行执行的。相反,驱动程序会计算所有元素。”

您所做的就是我的意思的一个示例。有时它只打印一个操作的结果。我通常会做一些类似于“take(10)”的事情,可能会被截断。如果单个行相当长,也会发生这种情况,尽管大多数情况下这可能已经足够好了。
myRDD.take(n).foreach(println)