Scala 将文件导入databricks笔记本时出现问题
我正在尝试将一个.txt文件从本地计算机导入databricks笔记本(scala)。我进入数据部分并单击“添加数据”。在顶部面板中选择“上传文件”选项,我单击浏览查找文件,然后单击“在笔记本中创建表”。然后,我得到了文件的路径,但当我试图通过命令“val file_location=“/FileStore/tables/…txt”访问另一个笔记本中的数据时,我得到了一个“java.io.FileNotFoundException:/FileStore/tables/…txt(没有这样的文件或目录)”。有人知道我在这里做错了什么以及我应该做什么吗Scala 将文件导入databricks笔记本时出现问题,scala,apache-spark,import,databricks,txt,Scala,Apache Spark,Import,Databricks,Txt,我正在尝试将一个.txt文件从本地计算机导入databricks笔记本(scala)。我进入数据部分并单击“添加数据”。在顶部面板中选择“上传文件”选项,我单击浏览查找文件,然后单击“在笔记本中创建表”。然后,我得到了文件的路径,但当我试图通过命令“val file_location=“/FileStore/tables/…txt”访问另一个笔记本中的数据时,我得到了一个“java.io.FileNotFoundException:/FileStore/tables/…txt(没有这样的文件或目
问候语格式应为
文本
,而不是文本
。请参阅:
scala>val df=spark.read.format(“text”).load(“README.md”)
df:org.apache.spark.sql.DataFrame=[value:string]
scala>df.count
res0:Long=104
或者您可以使用spark.read.textFile
函数,该函数实际上是实现该功能的快捷方式:
scala>spark.read.textFile(“README.md”).count
res1:Long=104
它似乎无法读取.txt文件。如果我将spark.read.format(“txt”)行更改为spark.read.format(“csv”),它可以找到数据(但随后它被加载为csv文件,这不是我想要的)。