Apache flink Flink 1.1.3与Hive 2.1.0交互
很抱歉给您带来不便,但我没有在文档或互联网上找到答案 我有一个平台:Apache flink Flink 1.1.3与Hive 2.1.0交互,apache-flink,apache-hive,Apache Flink,Apache Hive,很抱歉给您带来不便,但我没有在文档或互联网上找到答案 我有一个平台: Hadoop 2.7.3 蜂巢2.1.0 Hbase 1.2.4 火花1.6 我集成了Flink 1.1.3以在本地模式和纱线模式上使用它 我有兴趣使用Flink和Hive(就像使用Spark的hiveContext)来读取scala shell中的数据,可能吗?怎么做 关于。Flink不支持直接连接到配置单元,因为它在Spark with SQL上下文中受支持。但在Flink中,有一种简单的方法可以使用 您需要做的是首先
- Hadoop 2.7.3
- 蜂巢2.1.0
- Hbase 1.2.4
- 火花1.6
关于。Flink不支持直接连接到配置单元,因为它在Spark with SQL上下文中受支持。但在Flink中,有一种简单的方法可以使用 您需要做的是首先获得您希望使用Flink分析的Hive表的确切HDFS位置,例如
hdfs://app/hive/warehouse/mydb/mytable
然后你读数据
DataSet<Record> csvInput = env
.readCsvFile("hdfs://app/hive/warehouse/mydb/mytable/data.csv")
.pojoType(MyClass.class, "col1", "col2", "col3");
现在,您可以使用TableAPI语法查询这个表了
下面是示例代码的示例
希望这有帮助 Flink不支持到配置单元的直接连接,因为Spark with SQL上下文支持它。但在Flink中,有一种简单的方法可以使用 您需要做的是首先获得您希望使用Flink分析的Hive表的确切HDFS位置,例如
hdfs://app/hive/warehouse/mydb/mytable
然后你读数据
DataSet<Record> csvInput = env
.readCsvFile("hdfs://app/hive/warehouse/mydb/mytable/data.csv")
.pojoType(MyClass.class, "col1", "col2", "col3");
现在,您可以使用TableAPI语法查询这个表了
下面是示例代码的示例
希望这有帮助 从Flink 1.9.0开始,我们正式用Hive支持Flink
你还在研究这个选项吗?从Flink 1.9.0开始,我们正式支持Flink with Hive 你还在考虑这个选择吗