Dataframe PySpark-如何从一个数据帧获取模式并将其应用于另一个数据帧?

Dataframe PySpark-如何从一个数据帧获取模式并将其应用于另一个数据帧?,dataframe,apache-spark,pyspark,schema,Dataframe,Apache Spark,Pyspark,Schema,我的DF1具有正确的模式(列名和数据类型) 如何将模式从DF1应用到DF2?(即使DF2已经有一个) 我尝试了df2=sqlContext.createDataFrame(df2.rdd,df1.schema),这会更改架构,但可能会导致数据类型错误,如下所示: TypeError:字段ID:LongType无法接受类型中的对象8377813.0 投球更好吗?如果是-如何处理每一列 谢谢。您能提供更多关于模式性质的信息吗?您到底需要什么转换?您能提供一个示例数据集吗?您应该在创建df2时这样做,

我的
DF1
具有正确的模式(列名和数据类型)

如何将模式从DF1应用到DF2?(即使DF2已经有一个)

我尝试了
df2=sqlContext.createDataFrame(df2.rdd,df1.schema)
,这会更改架构,但可能会导致数据类型错误,如下所示:

TypeError:字段ID:LongType无法接受类型中的对象8377813.0

投球更好吗?如果是-如何处理每一列


谢谢。

您能提供更多关于模式性质的信息吗?您到底需要什么转换?您能提供一个示例数据集吗?您应该在创建
df2
时这样做,但我认为您正在进行更改。我需要合并2个数据帧。如果它们是不同的模式,怎么做?