Python 输入路径不存在
我是spark的新手,但我一直在尝试访问一个文件,无论我如何调整代码以在我的计算机上定位文本文件,我都会不断收到相同的错误Python 输入路径不存在,python,apache-spark,Python,Apache Spark,我是spark的新手,但我一直在尝试访问一个文件,无论我如何调整代码以在我的计算机上定位文本文件,我都会不断收到相同的错误 lines = sc.textFile(r"Documents/python-spark-tutorial/in/word_count.txt").collect() 回溯(最近一次调用):文件“”,第1行,在 文件 “C:\spark\spark-2.4.4-bin-hadoop2.7\python\pyspark\rdd.py”,第816行, 收款 sock_info
lines = sc.textFile(r"Documents/python-spark-tutorial/in/word_count.txt").collect()
回溯(最近一次调用):文件“”,第1行,在
文件
“C:\spark\spark-2.4.4-bin-hadoop2.7\python\pyspark\rdd.py”,第816行,
收款
sock_info=self.ctx._jvm.PythonRDD.collectAndServe(self._jrdd.rdd())文件
“C:\spark\spark-2.4.4-bin-hadoop2.7\python\lib\py4j-0.10.7-src.zip\py4j\java_gateway.py”,
第1257行,在调用文件中
“C:\spark\spark-2.4.4-bin-hadoop2.7\python\pyspark\sql\utils.py”,第行
63号,装饰
返回f(*a,kw)文件“C:\spark\spark-2.4.4-bin-hadoop2.7\python\lib\py4j-0.10.7-src.zip\py4j\protocol.py”,第328行,在获取返回值py4j.protocol.Py4JJavaError:**错误
在调用时发生
z:org.apache.spark.api.python.PythonRDD.collectAndServe.:
org.apache.hadoop.mapred.InvalidInputException:输入路径不正确
存在:
文件:/C:/Users/Home/Documents/python spark tutorial/in/word\u count.txt*
位于org.apache.hadoop.mapred.FileInputFormat.singleThreadedListStatus(FileInputFormat.java:287)
位于org.apache.hadoop.mapred.FileInputFormat.listStatus(FileInputFormat.java:229)
请尝试下面的代码片段
sc.textFile("file:///path")
我的问题解决了,是文件扩展名被txt而不是文本弄乱了谢谢shiva,我在意识到文件扩展名是文本而不是txt后得到了解决方案,这是我的错误,现在解决了