Apache spark 在HDFS中重命名Pyspark文件

Apache spark 在HDFS中重命名Pyspark文件,apache-spark,pyspark,hdfs,apache-spark-2.3,Apache Spark,Pyspark,Hdfs,Apache Spark 2.3,我正在使用spark 2.3.1,希望在pyspark程序中重命名HDFS文件。 我遵循这个答案[(Pypark) 这条线 fs.rename(路径(hdfs\u dir+''+文件名),路径(hdfs\u dir+''+新文件名)) 我有以下错误 NameError:未定义名称“路径” 如果我从行中删除Path关键字 我有以下错误 Py4JError:调用o562.rename时出错。跟踪: py4j.Py4JException:方法重命名([class java.lang.String,cl

我正在使用spark 2.3.1,希望在pyspark程序中重命名HDFS文件。 我遵循这个答案[(Pypark)

这条线

fs.rename(路径(hdfs\u dir+''+文件名),路径(hdfs\u dir+''+新文件名))

我有以下错误

NameError:未定义名称“路径”

如果我从行中删除Path关键字

我有以下错误

Py4JError:调用o562.rename时出错。跟踪: py4j.Py4JException:方法重命名([class java.lang.String,class java.lang.String])不存在

那么如何解决这个问题呢?

将路径定义为

Path = sc._gateway.jvm.org.apache.hadoop.fs.Path
将路径定义为

Path = sc._gateway.jvm.org.apache.hadoop.fs.Path