Apache spark 当尝试在上使用Python注册UDF时,我得到一个关于Spark BUILD with HIVE的错误

Apache spark 当尝试在上使用Python注册UDF时,我得到一个关于Spark BUILD with HIVE的错误,apache-spark,ibm-cloud,Apache Spark,Ibm Cloud,异常:(“您必须使用Hive.Export'Spark\u Hive=true'构建Spark并运行build/sbt assembly”,Py4JJavaError(调用None.org.apache.Spark.sql.Hive.HiveContext时出错。\n',JavaObject id=o54)) 每当我在IBM Bluemix Spark as Service上的Jupyter的第二个笔记本上创建UDF时,就会发生这种情况。我也遇到过这些错误。只有您启动的第一个笔记本才能访问配置单

异常:(“您必须使用Hive.Export'Spark\u Hive=true'构建Spark并运行build/sbt assembly”,Py4JJavaError(调用None.org.apache.Spark.sql.Hive.HiveContext时出错。\n',JavaObject id=o54))


每当我在IBM Bluemix Spark as Service上的Jupyter的第二个笔记本上创建UDF时,就会发生这种情况。

我也遇到过这些错误。只有您启动的第一个笔记本才能访问配置单元上下文

默认情况下,配置单元(上下文)使用嵌入式Derby作为元存储。它主要用于测试,只支持一个活动用户


如果使用IBM Bluemix Spark作为服务,请在python笔记本的单元格中执行以下命令:

!!rm-rf/gpfs/global_fs01/sym_shared/YPProdSpark/user/spark_租户id/notebook/notebook/metastore_db/*.lck

将spark_租户_id替换为实际id。您可以使用以下命令在笔记本的单元格中找到租户id:


!!whoami

您能提供引发错误消息的代码吗?