Python 没有名为';增量表';
以下代码出现以下错误,请帮助:Python 没有名为';增量表';,python,apache-spark,pyspark,delta-lake,Python,Apache Spark,Pyspark,Delta Lake,以下代码出现以下错误,请帮助: from delta.tables import * ModuleNotFoundError: No module named 'delta.tables' INFO SparkContext: Invoking stop() from shutdown hook 代码如下: ''' ''' 建议将scala版本验证为delta core jar版本的在线搜索。下面是scala和Jar版本 “delta-core_2.12-0.7.0” “使用
from delta.tables import *
ModuleNotFoundError: No module named 'delta.tables'
INFO SparkContext: Invoking stop() from shutdown hook
代码如下:
'''
'''
建议将scala版本验证为delta core jar版本的在线搜索。下面是scala和Jar版本
“delta-core_2.12-0.7.0”
“使用Scala版本2.12.10,Java HotSpot(TM)64位服务器虚拟机,1.8.0_221”根据delta软件包,有一个名为
tables
的python文件。
您应该克隆存储库并将python/delta
下的delta
文件夹复制到站点包路径(即。\python37\Lib\site-packages
)。然后重新启动python,您的代码运行时不会出现错误
我使用的是Python3.5.3
,
pyspark==3.0.1
,spark.jars和spark.jars.packages
之间存在差异。由于您正在遵循快速启动,请尝试更换
.config("spark.jars", "delta-core_2.12-0.7.0")
与
你的回答有帮助这里是提供的链接没有指向正确的存储库的地方。看一看,您将看到delta Python包中实际上存在
表
。@Bram Thank answer已修改了有关如何操作的说明。
.config("spark.jars", "delta-core_2.12-0.7.0")
.config("spark.jars.packages", "io.delta:delta-core_2.12:0.7.0")