Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/json/13.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Json 在SparkSQL Thrift服务器上添加配置单元SerDe jar_Json_Hive_Thrift_Apache Spark Sql_Tableau Api - Fatal编程技术网

Json 在SparkSQL Thrift服务器上添加配置单元SerDe jar

Json 在SparkSQL Thrift服务器上添加配置单元SerDe jar,json,hive,thrift,apache-spark-sql,tableau-api,Json,Hive,Thrift,Apache Spark Sql,Tableau Api,我有指向JSON文件作为内容的配置单元表,这些表需要JSON SerDe jar(from)来查询表。在承载Hadoop发行版的计算机(或VM)中,我可以简单地在Hive或Beeline CLI中执行: ADD JAR /<local-path>/json-serde-1.0.jar; 如何添加Hive JSON SerDe jar,以便Tableau可以读取Hive JSON表?我猜您正在使用jdbc将Tableau连接到Hive 使用配置单元外壳时,配置单元从配置单元客户端绑定

我有指向JSON文件作为内容的配置单元表,这些表需要JSON SerDe jar(from)来查询表。在承载Hadoop发行版的计算机(或VM)中,我可以简单地在Hive或Beeline CLI中执行:

ADD JAR /<local-path>/json-serde-1.0.jar;

如何添加Hive JSON SerDe jar,以便Tableau可以读取Hive JSON表?

我猜您正在使用jdbc将Tableau连接到Hive

使用配置单元外壳时,配置单元从配置单元客户端绑定所有需要的库(包括SerDe),并构建一个jar,该jar在集群上分发和执行。不幸的是,jdbc服务器没有这样做,因此您必须在所有节点上手动安装和配置SerDe,并将其放在所有map/reduce节点的类路径上(将jar复制到所有节点,并添加类似于
HADOOP\u CLASSSPATH=$HADOOP\u classpath:/location/of/your/SerDe.jar
)的内容)。 之后可能需要重新开始纺纱。 这很不方便,但jdbc驱动程序就是这样工作的


请参见

谢谢您的帮助。我正在使用ODBC。特别是来自Databricks的Simba Spark ODBC驱动程序。ODBC的过程相同吗?是的,应该是相同的过程。
'java.lang.RuntimeException: MetaException(message:java.lang.ClassNotFoundException Class org.openx.data.jsonserde.JsonSerDe not found)'.