Apache spark 当尝试在上使用Python注册UDF时,我得到一个关于Spark BUILD with HIVE的错误
异常:(“您必须使用Hive.Export'Spark\u Hive=true'构建Spark并运行build/sbt assembly”,Py4JJavaError(调用None.org.apache.Spark.sql.Hive.HiveContext时出错。\n',JavaObject id=o54))Apache spark 当尝试在上使用Python注册UDF时,我得到一个关于Spark BUILD with HIVE的错误,apache-spark,ibm-cloud,Apache Spark,Ibm Cloud,异常:(“您必须使用Hive.Export'Spark\u Hive=true'构建Spark并运行build/sbt assembly”,Py4JJavaError(调用None.org.apache.Spark.sql.Hive.HiveContext时出错。\n',JavaObject id=o54)) 每当我在IBM Bluemix Spark as Service上的Jupyter的第二个笔记本上创建UDF时,就会发生这种情况。我也遇到过这些错误。只有您启动的第一个笔记本才能访问配置单
每当我在IBM Bluemix Spark as Service上的Jupyter的第二个笔记本上创建UDF时,就会发生这种情况。我也遇到过这些错误。只有您启动的第一个笔记本才能访问配置单元上下文 默认情况下,配置单元(上下文)使用嵌入式Derby作为元存储。它主要用于测试,只支持一个活动用户
如果使用IBM Bluemix Spark作为服务,请在python笔记本的单元格中执行以下命令: !!rm-rf/gpfs/global_fs01/sym_shared/YPProdSpark/user/spark_租户id/notebook/notebook/metastore_db/*.lck 将spark_租户_id替换为实际id。您可以使用以下命令在笔记本的单元格中找到租户id:
!!whoami您能提供引发错误消息的代码吗?