Python 3.x Pysaprk:IOError:[Errno 2]没有这样的文件或目录

Python 3.x Pysaprk:IOError:[Errno 2]没有这样的文件或目录,python-3.x,apache-spark,pyspark,Python 3.x,Apache Spark,Pyspark,我的PySpark代码直接在hadoop集群中运行。但当我打开此文件时,它会给我以下错误:IOError:[Errno 2]没有这样的文件或目录: with open("/tmp/CIP_UTILITIES/newjsonfile.json", "w") as fp: json.dump("json_output", fp) 对于这种情况,在处理文件时,最好使用pathlib模块 您可以运行调试来查看此路径实际指向的位置吗 问候语你不需要用hdfs来写目录吗?我试着只给出目录,但还是失

我的PySpark代码直接在hadoop集群中运行。但当我打开此文件时,它会给我以下错误:IOError:[Errno 2]没有这样的文件或目录:

with open("/tmp/CIP_UTILITIES/newjsonfile.json", "w") as fp:
    json.dump("json_output", fp)

对于这种情况,在处理文件时,最好使用pathlib模块

您可以运行调试来查看此路径实际指向的位置吗


问候语

你不需要用
hdfs
来写目录吗?我试着只给出目录,但还是失败了。你可以这样写:
“hdfs://localhost:port/tmp/CIP_UTILITIES/newjsonfile.json“
?是的,首先我试过这个。但它不起作用