Json 在SparkSQL Thrift服务器上添加配置单元SerDe jar
我有指向JSON文件作为内容的配置单元表,这些表需要JSON SerDe jar(from)来查询表。在承载Hadoop发行版的计算机(或VM)中,我可以简单地在Hive或Beeline CLI中执行:Json 在SparkSQL Thrift服务器上添加配置单元SerDe jar,json,hive,thrift,apache-spark-sql,tableau-api,Json,Hive,Thrift,Apache Spark Sql,Tableau Api,我有指向JSON文件作为内容的配置单元表,这些表需要JSON SerDe jar(from)来查询表。在承载Hadoop发行版的计算机(或VM)中,我可以简单地在Hive或Beeline CLI中执行: ADD JAR /<local-path>/json-serde-1.0.jar; 如何添加Hive JSON SerDe jar,以便Tableau可以读取Hive JSON表?我猜您正在使用jdbc将Tableau连接到Hive 使用配置单元外壳时,配置单元从配置单元客户端绑定
ADD JAR /<local-path>/json-serde-1.0.jar;
如何添加Hive JSON SerDe jar,以便Tableau可以读取Hive JSON表?我猜您正在使用jdbc将Tableau连接到Hive 使用配置单元外壳时,配置单元从配置单元客户端绑定所有需要的库(包括SerDe),并构建一个jar,该jar在集群上分发和执行。不幸的是,jdbc服务器没有这样做,因此您必须在所有节点上手动安装和配置SerDe,并将其放在所有map/reduce节点的类路径上(将jar复制到所有节点,并添加类似于
HADOOP\u CLASSSPATH=$HADOOP\u classpath:/location/of/your/SerDe.jar
)的内容)。
之后可能需要重新开始纺纱。
这很不方便,但jdbc驱动程序就是这样工作的
请参见谢谢您的帮助。我正在使用ODBC。特别是来自Databricks的Simba Spark ODBC驱动程序。ODBC的过程相同吗?是的,应该是相同的过程。
'java.lang.RuntimeException: MetaException(message:java.lang.ClassNotFoundException Class org.openx.data.jsonserde.JsonSerDe not found)'.