Apache spark 我应该在Spark SQL中使用registerDataFrameAsTable吗?

Apache spark 我应该在Spark SQL中使用registerDataFrameAsTable吗?,apache-spark,apache-spark-sql,pyspark,Apache Spark,Apache Spark Sql,Pyspark,在使用Scala从PySpark迁移到Spark的过程中,我遇到了一个问题,这是由于SqlContext是私有的。这让我觉得我的方法可能不正确。在PySpark中,我执行以下操作:加载每个表:df=sqlContext.load(source,url,dbtable),然后注册每个sqlContext.registerDataFrameAsTable(df,dbtable),最后使用sqlContext.sql方法我可以进行查询(这基本上就是我需要的) 这样做对吗?如何在Scala中实现它?在S

在使用Scala从PySpark迁移到Spark的过程中,我遇到了一个问题,这是由于SqlContext是私有的。这让我觉得我的方法可能不正确。在PySpark中,我执行以下操作:加载每个表:
df=sqlContext.load(source,url,dbtable)
,然后注册每个
sqlContext.registerDataFrameAsTable(df,dbtable)
,最后使用
sqlContext.sql
方法我可以进行查询(这基本上就是我需要的)


这样做对吗?如何在Scala中实现它?

在Scala中,
寄存器可清空
保存可清空
(这是实验性的)方法可以直接在DataFrame对象上使用,应该使用