Python pyspark:IOError:[Errno 20]不是目录(egg文件导入)

Python pyspark:IOError:[Errno 20]不是目录(egg文件导入),python,apache-spark,pyspark,egg,Python,Apache Spark,Pyspark,Egg,我正在尝试使用.egg文件运行pyspark作业。该文件中有一些代码引用了.egg文件中的.json文件 我使用os.path.dirname(文件)获取.py文件(在.egg文件中)的绝对路径,然后将路径附加到它 路径如下所示: /private/var/folders/8b/85wbwwxn2n31zfl1dgcpcfxs1d0qjg/T/spark-347c3633-7d95-467c-a222-83965afc7f34/userFiles-d0c02f9a-3c54-4f50-bb14-

我正在尝试使用.egg文件运行pyspark作业。该文件中有一些代码引用了.egg文件中的.json文件

我使用os.path.dirname(文件)获取.py文件(在.egg文件中)的绝对路径,然后将路径附加到它

路径如下所示:

/private/var/folders/8b/85wbwwxn2n31zfl1dgcpcfxs1d0qjg/T/spark-347c3633-7d95-467c-a222-83965afc7f34/userFiles-d0c02f9a-3c54-4f50-bb14-550a1bdcc26b/normalize-3.0-py3.5.egg/I18NADRESS/data/us.json

我的目录结构是:

normalize-3.0-py3.5.egg
--i18naddress
----_init_.py (the class I call)
----data
------us.json

相对路径看起来正确,但spark无法读取这些文件并抛出IO错误。有人能告诉我我做错了什么吗?

看起来你在问如何读取鸡蛋文件中的文件。谢谢你,这很有效!!!谢谢你也帮了我!