Join ApacheSparkSQL:自动内部连接?

Join ApacheSparkSQL:自动内部连接?,join,apache-spark,apache-spark-sql,Join,Apache Spark,Apache Spark Sql,所以我有一个奇怪的情况 每当我使用内部联接语句运行sqlContext.sql时,实际上会收到一个错误,但当我读取错误时,Spark似乎已经在尝试执行on语句时自动联接了我的两个单独的表 表1: 患者id,代码 表2: 患者id,日期 Select code, date from Table1 inner join Table2 on Table1.patient_id = Table2.patient_id <- exception shows the table is joined a

所以我有一个奇怪的情况

每当我使用
内部联接
语句运行sqlContext.sql时,实际上会收到一个错误,但当我读取错误时,Spark似乎已经在尝试执行
on
语句时自动联接了我的两个单独的表

表1: 患者id,代码

表2: 患者id,日期

Select code, date
from Table1
inner join Table2
on Table1.patient_id = Table2.patient_id <- exception shows the table is joined already by this point.
选择代码、日期
来自表1
内连接表2

在表1.patient_id=表2.patient_id中,我认为您的程序中有一个输入错误

但是,您可以执行以下操作:

tableOneDF.join(tableTwoDF, tableOneDF("patient_id") === tableTwoDF("patient_id"), "inner").select("code", "date") 
而tableOneDF和tableTwoDF是在两个表之上创建的两个数据帧


试一试,看看它是否仍然发生。

我想你的程序中有一个输入错误

但是,您可以执行以下操作:

tableOneDF.join(tableTwoDF, tableOneDF("patient_id") === tableTwoDF("patient_id"), "inner").select("code", "date") 
而tableOneDF和tableTwoDF是在两个表之上创建的两个数据帧


请尝试一下,看看它是否仍然发生。

您是否也可以发布错误消息?更新错误消息您是否可以发布代码?我们可能会帮助您…您是否也可以发布错误消息?更新错误消息您是否可以发布代码?我们也许能帮你…是的,我找到了,谢谢。列名有点不匹配,但这是一个多么奇怪的错误……是的,我找到了,谢谢。列名有点不匹配,但这是一个多么奇怪的错误。。。