Scala 绑定两个不同数据帧的列
spark中有两个不同的数据帧,我想绑定它们的列以形成一个独特的数据帧。如何使用spark scala进行此操作?Scala 绑定两个不同数据帧的列,scala,apache-spark,dataframe,apache-spark-sql,Scala,Apache Spark,Dataframe,Apache Spark Sql,spark中有两个不同的数据帧,我想绑定它们的列以形成一个独特的数据帧。如何使用spark scala进行此操作? 谢谢听起来您想加入两个数据帧 要做到这一点,您需要有一个键,可以将一行的列与另一行的列绑定(连接)。您可以在此处找到更多信息: 我不想加入。我得到了两个具有相同行数的df,我想在另一个df的右边附加一个df,我想一个join可以完全做到这一点,不join在行之间执行笛卡尔积?您需要根据密钥相等性进行筛选。我们要做的只是将列按原样连接起来。如果您能提供一个包含输入和输出数据的示例,将
谢谢听起来您想加入两个数据帧 要做到这一点,您需要有一个键,可以将一行的列与另一行的列绑定(连接)。您可以在此处找到更多信息:
我不想加入。我得到了两个具有相同行数的df,我想在另一个df的右边附加一个df,我想一个join可以完全做到这一点,不join在行之间执行笛卡尔积?您需要根据密钥相等性进行筛选。我们要做的只是将列按原样连接起来。如果您能提供一个包含输入和输出数据的示例,将非常有帮助
myDataframe
.join(otherDataframe, col("x") === col("y"))