Scala 将文件导入databricks笔记本时出现问题

Scala 将文件导入databricks笔记本时出现问题,scala,apache-spark,import,databricks,txt,Scala,Apache Spark,Import,Databricks,Txt,我正在尝试将一个.txt文件从本地计算机导入databricks笔记本(scala)。我进入数据部分并单击“添加数据”。在顶部面板中选择“上传文件”选项,我单击浏览查找文件,然后单击“在笔记本中创建表”。然后,我得到了文件的路径,但当我试图通过命令“val file_location=“/FileStore/tables/…txt”访问另一个笔记本中的数据时,我得到了一个“java.io.FileNotFoundException:/FileStore/tables/…txt(没有这样的文件或目

我正在尝试将一个.txt文件从本地计算机导入databricks笔记本(scala)。我进入数据部分并单击“添加数据”。在顶部面板中选择“上传文件”选项,我单击浏览查找文件,然后单击“在笔记本中创建表”。然后,我得到了文件的路径,但当我试图通过命令“val file_location=“/FileStore/tables/…txt”访问另一个笔记本中的数据时,我得到了一个“java.io.FileNotFoundException:/FileStore/tables/…txt(没有这样的文件或目录)”。有人知道我在这里做错了什么以及我应该做什么吗


问候语

格式应为
文本
,而不是
文本
。请参阅:

scala>val df=spark.read.format(“text”).load(“README.md”)
df:org.apache.spark.sql.DataFrame=[value:string]
scala>df.count
res0:Long=104
或者您可以使用
spark.read.textFile
函数,该函数实际上是实现该功能的快捷方式:

scala>spark.read.textFile(“README.md”).count
res1:Long=104

它似乎无法读取.txt文件。如果我将spark.read.format(“txt”)行更改为spark.read.format(“csv”),它可以找到数据(但随后它被加载为csv文件,这不是我想要的)。