Hadoop beeline和spark shell能否为同一个apache spark显示不同的数据库?

Hadoop beeline和spark shell能否为同一个apache spark显示不同的数据库?,hadoop,apache-spark,jdbc,hive,Hadoop,Apache Spark,Jdbc,Hive,我在ubuntu上安装了hadoop2.8.1,然后在上面安装了spark-2.2.0-bin-hadoop2.7。 首先,当我通过spark shell创建数据库并试图通过java JDBC程序访问它时,我发现不存在任何表。然后我使用了beeline并观察到这里也不存在数据库。我通过beeline创建了数据库。为什么spark shell和beeline显示不同的DBs 他们可能也应该表现出同样的态度。我尝试了连接hive2的普通JDBC程序并获取了表,发现有时它显示了我通过spark she

我在ubuntu上安装了hadoop2.8.1,然后在上面安装了spark-2.2.0-bin-hadoop2.7。 首先,当我通过spark shell创建数据库并试图通过java JDBC程序访问它时,我发现不存在任何表。然后我使用了beeline并观察到这里也不存在数据库。我通过beeline创建了数据库。为什么spark shell和beeline显示不同的DBs


他们可能也应该表现出同样的态度。我尝试了连接hive2的普通JDBC程序并获取了表,发现有时它显示了我通过spark shell创建的表,有时显示了通过beeline创建的表……请帮助。同样的情况有时也会发生在beeline上。

这可能是因为您安装了Spark 未正确配置以访问您的配置单元仓库

在这种情况下,Spark SQL被设计为建立自己的本地仓库 并恢复到独立模式。这是为了便于采用 对于非配置单元用户

要对此进行故障排除,您应该:

  • 请参阅
  • 阅读日志并查找与“hive”或“metastore”相关的任何内容,以 了解发生了什么
  • 确保Spark可以访问hive-site.xml配置文件。 例如,您可以设置一个符号链接(确保首先检查路径)

  • 确保Spark安装可以访问蜂箱罐 (检查
    $SPARK\u HOME/lib
  • 请确保您已通过以下方式启用配置单元支持:

    SparkSession.builder.enableHiveSupport().getOrCreate()
    

  • 希望这有帮助。

    这可能是因为您安装了Spark 未正确配置以访问您的配置单元仓库

    在这种情况下,Spark SQL被设计为建立自己的本地仓库 并恢复到独立模式。这是为了便于采用 对于非配置单元用户

    要对此进行故障排除,您应该:

  • 请参阅
  • 阅读日志并查找与“hive”或“metastore”相关的任何内容,以 了解发生了什么
  • 确保Spark可以访问hive-site.xml配置文件。 例如,您可以设置一个符号链接(确保首先检查路径)

  • 确保Spark安装可以访问蜂箱罐 (检查
    $SPARK\u HOME/lib
  • 请确保您已通过以下方式启用配置单元支持:

    SparkSession.builder.enableHiveSupport().getOrCreate()
    

  • 希望这能有所帮助。

    我是新来的spark,很抱歉问了一些愚蠢的问题。我没有安装配置单元,并且在spark文件夹中找不到hive-site.xml。我的文件系统中也没有任何配置单元文件夹。你能帮个忙吗?你能在[链接]()上帮我一下吗?我不确定我是否理解你的设置。如果你没有安装蜂巢,你怎么能使用直线?要使用beeline,您应该将其连接到HiveServer2 url,它是哪一个?如果您只想在沙箱环境中尝试spark sql,可以尝试以下docker:它设置一个配置单元元存储、一个spark ThriftServer(HiveServer2),并打开一个连接到它的spark sql shell。您还可以查看DockerFile开始安装类似的环境。“jdbc:hive2://localhost:10000/default”是我的url。我仍然没有在任何地方找到hive-site.xml..猜猜看?hive-site.xml是一个配置文件,它允许像spark这样的hive客户端连接到HiveServer2。你必须自己创建和编辑它。您是否设置了HiveServer2或spark ThriftServer?如果您想开始使用Hive和Spark,我建议您先使用Hortonworks或Cloudera沙箱,以获得预配置的环境。如果你对Hive和Spark真的是新手,不要使用直线,坚持使用Spark sql。我对Spark是新手,很抱歉提出了一些愚蠢的问题。我没有安装配置单元,并且在spark文件夹中找不到hive-site.xml。我的文件系统中也没有任何配置单元文件夹。你能帮个忙吗?你能在[链接]()上帮我一下吗?我不确定我是否理解你的设置。如果你没有安装蜂巢,你怎么能使用直线?要使用beeline,您应该将其连接到HiveServer2 url,它是哪一个?如果您只想在沙箱环境中尝试spark sql,可以尝试以下docker:它设置一个配置单元元存储、一个spark ThriftServer(HiveServer2),并打开一个连接到它的spark sql shell。您还可以查看DockerFile开始安装类似的环境。“jdbc:hive2://localhost:10000/default”是我的url。我仍然没有在任何地方找到hive-site.xml..猜猜看?hive-site.xml是一个配置文件,它允许像spark这样的hive客户端连接到HiveServer2。你必须自己创建和编辑它。您是否设置了HiveServer2或spark ThriftServer?如果您想开始使用Hive和Spark,我建议您先使用Hortonworks或Cloudera沙箱,以获得预配置的环境。如果您对Hive和Spark真的是新手,不要使用直线,坚持使用Spark sql。