Apache spark 在apache spark中对3个非空rdd帧进行联合操作后,结果表显示为空

Apache spark 在apache spark中对3个非空rdd帧进行联合操作后,结果表显示为空,apache-spark,apache-spark-sql,spark-dataframe,pyspark-sql,Apache Spark,Apache Spark Sql,Spark Dataframe,Pyspark Sql,我是spark的新手,面临着一个奇怪的问题。我有三个RDD数据帧t1frame、t2frame、t3frame,所有这些都是非空的,并给出了图片 t1frame 吼叫 t2frame T3机架 我首先使用了下面的代码,我导入了reduce和dataframe def unionAll(*dfs): return reduce(DataFrame.unionAll,dfs) TTunified=unionAll(t1frame,t2frame,t3frame) TTunified

我是spark的新手,面临着一个奇怪的问题。我有三个RDD数据帧t1frame、t2frame、t3frame,所有这些都是非空的,并给出了图片

t1frame 吼叫

t2frame

T3机架

我首先使用了下面的代码,我导入了reduce和dataframe

def unionAll(*dfs):
    return reduce(DataFrame.unionAll,dfs)



TTunified=unionAll(t1frame,t2frame,t3frame)
TTunified.show()
unionframe1=t1frame.union(t2frame)
unionframe1.show()

我有这张空桌子。然后我尝试了统一两个数据帧

def unionAll(*dfs):
    return reduce(DataFrame.unionAll,dfs)



TTunified=unionAll(t1frame,t2frame,t3frame)
TTunified.show()
unionframe1=t1frame.union(t2frame)
unionframe1.show()
我也得到了同样的结果。甚至我也尝试过基于表的方法,但没有任何改变。我怎样才能解决它呢?请引导我。我是不是遗漏了什么。我正在使用pyspark 2.0