Python 3.x Pysaprk:IOError:[Errno 2]没有这样的文件或目录
我的PySpark代码直接在hadoop集群中运行。但当我打开此文件时,它会给我以下错误:IOError:[Errno 2]没有这样的文件或目录:Python 3.x Pysaprk:IOError:[Errno 2]没有这样的文件或目录,python-3.x,apache-spark,pyspark,Python 3.x,Apache Spark,Pyspark,我的PySpark代码直接在hadoop集群中运行。但当我打开此文件时,它会给我以下错误:IOError:[Errno 2]没有这样的文件或目录: with open("/tmp/CIP_UTILITIES/newjsonfile.json", "w") as fp: json.dump("json_output", fp) 对于这种情况,在处理文件时,最好使用pathlib模块 您可以运行调试来查看此路径实际指向的位置吗 问候语你不需要用hdfs来写目录吗?我试着只给出目录,但还是失
with open("/tmp/CIP_UTILITIES/newjsonfile.json", "w") as fp:
json.dump("json_output", fp)
对于这种情况,在处理文件时,最好使用pathlib模块 您可以运行调试来查看此路径实际指向的位置吗
问候语你不需要用
hdfs
来写目录吗?我试着只给出目录,但还是失败了。你可以这样写:“hdfs://localhost:port/tmp/CIP_UTILITIES/newjsonfile.json“
?是的,首先我试过这个。但它不起作用