连接到Spark Shell中现有的Spark SQL上下文
我有一个Spark SQL应用程序,我在其中创建了数据帧,并将它们注册为临时表。现在,我希望使用Spark Shell连接到此应用程序中的上下文,以便进行一些探索性分析连接到Spark Shell中现有的Spark SQL上下文,shell,apache-spark-sql,Shell,Apache Spark Sql,我有一个Spark SQL应用程序,我在其中创建了数据帧,并将它们注册为临时表。现在,我希望使用Spark Shell连接到此应用程序中的上下文,以便进行一些探索性分析 我在网上做了一些搜索,但到目前为止没有成功。我仍在继续我的搜索,但我希望这里的人以前遇到过这个挑战,并且不介意分享他们是如何解决的。我只是在spark shell中的小数据样本上测试代码,然后当所有小部分都工作时,将它们添加到整个应用程序中,然后编译Scala.jar文件。如果有更好的办法,我也想听听。谢谢,@zero323。我
我在网上做了一些搜索,但到目前为止没有成功。我仍在继续我的搜索,但我希望这里的人以前遇到过这个挑战,并且不介意分享他们是如何解决的。我只是在spark shell中的小数据样本上测试代码,然后当所有小部分都工作时,将它们添加到整个应用程序中,然后编译Scala.jar文件。如果有更好的办法,我也想听听。谢谢,@zero323。我想我必须寻找另一种方法,我只是在spark shell中的小数据样本上测试代码,然后当所有小部分都工作时,将它们添加到整个应用程序中,然后编译Scala.jar文件。如果有更好的办法,我也想听听。谢谢,@zero323。我想我得另找一条路了,