- hadoop/
- Hadoop runing flink+;配置单元示例代码抛出';找不到适用于';org.apache.flink.table.factories.CatalogFactory';例外
Hadoop runing flink+;配置单元示例代码抛出';找不到适用于';org.apache.flink.table.factories.CatalogFactory';例外
Hadoop runing flink+;配置单元示例代码抛出';找不到适用于';org.apache.flink.table.factories.CatalogFactory';例外,hadoop,hive,apache-flink,Hadoop,Hive,Apache Flink,我是弗林克的新手。
尝试将flink与hive集成,运行以下示例代码:
sql客户端配置单元.yaml:
执行:
planner: blink
current-catalog: myhive # set the HiveCatalog as the current catalog of the session
current-database: myhivedb
目录:
姓名:myhive
类型:蜂巢
配置单元配置目录:/opt/apache/hive/conf
$sql-cl
我是弗林克的新手。
尝试将flink与hive集成,运行以下示例代码:
sql客户端配置单元.yaml:
执行:
planner: blink
current-catalog: myhive # set the HiveCatalog as the current catalog of the session
current-database: myhivedb
目录:
- 姓名:myhive
类型:蜂巢
配置单元配置目录:/opt/apache/hive/conf
$sql-client.sh embedded-d conf/sql-client-hive.yaml
从以下文件读取默认环境:/opt/apache/flink-1.11.2/conf/sql-client-hive.yaml
没有指定会话环境
线程“main”org.apache.flink.table.client.SqlClientException中出现异常:意外异常。这是一个错误。请考虑提交一个问题。
位于org.apache.flink.table.client.SqlClient.main(SqlClient.java:213)
原因:org.apache.flink.table.client.gateway.SqlExecutionException:无法创建执行上下文。
位于org.apache.flink.table.client.gateway.local.ExecutionContext$Builder.build(ExecutionContext.java:870)
位于org.apache.flink.table.client.gateway.local.LocalExecutor.openSession(LocalExecutor.java:227)
位于org.apache.flink.table.client.SqlClient.start(SqlClient.java:108)
位于org.apache.flink.table.client.SqlClient.main(SqlClient.java:201)
原因:org.apache.flink.table.api.NoMatchingTableFactoryException:在中找不到适用于“org.apache.flink.table.factories.CatalogFactory”的表工厂
类路径
原因:所需的上下文属性不匹配
请求以下属性:
配置单元配置目录=/opt/apache/hive/conf
类型=蜂巢
已考虑以下工厂:
org.apache.flink.table.catalog.GenericInMemoryCatalogFactory
位于org.apache.flink.table.factories.TableFactoryService.filterByContext(TableFactoryService.java:322)
位于org.apache.flink.table.factories.TableFactoryService.filter(TableFactoryService.java:190)
位于org.apache.flink.table.factories.TableFactoryService.findSingleInternal(TableFactoryService.java:143)
位于org.apache.flink.table.factories.TableFactoryService.find(TableFactoryService.java:113)
位于org.apache.flink.table.client.gateway.local.ExecutionContext.createCatalog(ExecutionContext.java:377)
位于org.apache.flink.table.client.gateway.local.ExecutionContext.lambda$null$5(ExecutionContext.java:626)
位于java.util.HashMap.forEach(HashMap.java:1289)
位于org.apache.flink.table.client.gateway.local.ExecutionContext.lambda$initializeCatalogs$6(ExecutionContext.java:625)
位于org.apache.flink.table.client.gateway.local.ExecutionContext.wrapClassLoader(ExecutionContext.java:264)
位于org.apache.flink.table.client.gateway.local.ExecutionContext.initializeCatalogs(ExecutionContext.java:624)
位于org.apache.flink.table.client.gateway.local.ExecutionContext.initializeTableEnvironment(ExecutionContext.java:523)
位于org.apache.flink.table.client.gateway.local.ExecutionContext.(ExecutionContext.java:183)
位于org.apache.flink.table.client.gateway.local.ExecutionContext.(ExecutionContext.java:136)
位于org.apache.flink.table.client.gateway.local.ExecutionContext$Builder.build(ExecutionContext.java:859)
... 3个以上
知道发生了什么吗
蜂巢元存储运行良好。
蜂巢>显示数据库;
好啊
违约
麝香草
所用时间:0.05秒,获取:2行
**配置单元版本:3.1.2
flink版本:1.11.2**另外,在尝试运行python版本的代码时,引发了以下异常。TypeError:找不到Java类“org.apache.flink.table.catalog.hive.HiveCatalog”。Java依赖项可以通过命令行参数“--jarfile”或配置选项“pipeline.jars”指定。此外,在尝试运行python版本的代码时,也会引发以下异常。TypeError:找不到Java类“org.apache.flink.table.catalog.hive.HiveCatalog”。Java依赖项可以通过命令行参数“-jarfile”或配置选项“pipeline.jars”指定