如何使用SCALA读取.DAT文件

如何使用SCALA读取.DAT文件,scala,apache-spark,Scala,Apache Spark,我试图使用以下语法读取DAT文件,但出现以下错误: spark.read.format("dat").option("header", "true").option("delimiter","!^") 线程“main”java.lang.ClassNotFoundException中出现异常:未能找到数据源:dat。请在以下网址查找包裹: 您可以尝试以下方法: spark.read .option("header", "true") .option("inferSchema", "tr

我试图使用以下语法读取DAT文件,但出现以下错误:

spark.read.format("dat").option("header", "true").option("delimiter","!^")
线程“main”java.lang.ClassNotFoundException中出现异常:未能找到数据源:dat。请在以下网址查找包裹:

您可以尝试以下方法:

spark.read
  .option("header", "true")
  .option("inferSchema", "true")
  .option("delimiter", "\t")
  .csv(spark.read.textFile("filename")
  .map(line => line.split("YOUR DOUBLE DELIMITER").mkString("\t")))
答案就在这里:

我需要加载多个文件,所以我在load.schema(RC32_schema).load(s“FILEPATH/”+var)中使用变量。您能告诉我们是二进制数据还是文本吗?如果我使用这个,我可以读取spark.read.format(“csv”)。选项(“header”,“true”)。选项(“delimiter”,“^”)但仅限分隔符字符,但文件由两个字符分隔。这是简单的文本数据,无法获得预期的结果,每行出现在一列中