Apache flink Flink 1.1.3与Hive 2.1.0交互

Apache flink Flink 1.1.3与Hive 2.1.0交互,apache-flink,apache-hive,Apache Flink,Apache Hive,很抱歉给您带来不便,但我没有在文档或互联网上找到答案 我有一个平台: Hadoop 2.7.3 蜂巢2.1.0 Hbase 1.2.4 火花1.6 我集成了Flink 1.1.3以在本地模式和纱线模式上使用它 我有兴趣使用Flink和Hive(就像使用Spark的hiveContext)来读取scala shell中的数据,可能吗?怎么做 关于。Flink不支持直接连接到配置单元,因为它在Spark with SQL上下文中受支持。但在Flink中,有一种简单的方法可以使用 您需要做的是首先

很抱歉给您带来不便,但我没有在文档或互联网上找到答案

我有一个平台:

  • Hadoop 2.7.3
  • 蜂巢2.1.0
  • Hbase 1.2.4
  • 火花1.6
我集成了Flink 1.1.3以在本地模式和纱线模式上使用它

我有兴趣使用Flink和Hive(就像使用Spark的hiveContext)来读取scala shell中的数据,可能吗?怎么做


关于。

Flink不支持直接连接到配置单元,因为它在Spark with SQL上下文中受支持。但在Flink中,有一种简单的方法可以使用

您需要做的是首先获得您希望使用Flink分析的Hive表的确切HDFS位置,例如

hdfs://app/hive/warehouse/mydb/mytable
然后你读数据

DataSet<Record> csvInput = env
            .readCsvFile("hdfs://app/hive/warehouse/mydb/mytable/data.csv")
            .pojoType(MyClass.class, "col1", "col2", "col3");
现在,您可以使用TableAPI语法查询这个表了

下面是示例代码的示例


希望这有帮助

Flink不支持到配置单元的直接连接,因为Spark with SQL上下文支持它。但在Flink中,有一种简单的方法可以使用

您需要做的是首先获得您希望使用Flink分析的Hive表的确切HDFS位置,例如

hdfs://app/hive/warehouse/mydb/mytable
然后你读数据

DataSet<Record> csvInput = env
            .readCsvFile("hdfs://app/hive/warehouse/mydb/mytable/data.csv")
            .pojoType(MyClass.class, "col1", "col2", "col3");
现在,您可以使用TableAPI语法查询这个表了

下面是示例代码的示例


希望这有帮助

从Flink 1.9.0开始,我们正式用Hive支持Flink


你还在研究这个选项吗?

从Flink 1.9.0开始,我们正式支持Flink with Hive

你还在考虑这个选择吗