Scala FileUtil.fullyDeleteContents不工作

Scala FileUtil.fullyDeleteContents不工作,scala,hadoop,hdfs,Scala,Hadoop,Hdfs,我写了一个剧本。它应该将某些类型的文件从某些目录复制到其他目录中(它应该先清理这些目录)。它复制所有内容,但不清理目录。没有错误或例外 import org.apache.hadoop.conf.Configuration import org.apache.hadoop.fs.{FileSystem, Path, FileUtil} val conf = new Configuration() val fs = FileSystem.get(conf) val listOfFileType

我写了一个剧本。它应该将某些类型的文件从某些目录复制到其他目录中(它应该先清理这些目录)。它复制所有内容,但不清理目录。没有错误或例外

import org.apache.hadoop.conf.Configuration
import org.apache.hadoop.fs.{FileSystem, Path, FileUtil}

val conf = new Configuration()
val fs = FileSystem.get(conf)

val listOfFileTypes = List("mta", "rcr", "sub")
val listOfPlatforms = List("B", "C", "H", "M", "Y")

for(fileType <- listOfFileTypes){
  FileUtil.fullyDeleteContents(new File("/apps/hive/warehouse/soc.db/fct_evkuzmin/file_" + fileType))
  for (platform <- listOfPlatforms) {
    var srcPaths = fs.globStatus(new Path("/user/com/data/" + "20170404" + "_" + platform + "/*" + fileType + ".gz"))
    var dstPath = new Path("/apps/hive/warehouse/soc.db/fair_usage/fct_evkuzmin/file_" + fileType)

    for(srcPath <- srcPaths){
      println("copying " + srcPath.getPath.toString)
      FileUtil.copy(fs, srcPath.getPath, fs, dstPath, false, conf)
    }
  }
}
import org.apache.hadoop.conf.Configuration
导入org.apache.hadoop.fs.{FileSystem,Path,FileUtil}
val conf=新配置()
val fs=FileSystem.get(conf)
val listOfFileTypes=列表(“mta”、“rcr”、“sub”)
val listOfPlatforms=列表(“B”、“C”、“H”、“M”、“Y”)

对于(文件类型),您需要完整的url。我猜您不是第一个需要完整url的人。我猜您不是第一个