火花阅读Json

火花阅读Json,json,scala,apache-spark,spark-dataframe,Json,Scala,Apache Spark,Spark Dataframe,我试着在上面举例 我在shell上尝试了以下命令: val df = sqlContext.read.json("examples/src/main/resources/people.json") 它给出一个错误:“作业中未指定输入路径” 为什么会出现这个问题?我该怎么处理呢 谢谢。该错误意味着您没有在正确的文件夹中启动spark shell,因为该路径是相对路径。要解决此问题,您需要将工作目录更改为spark主目录,或者将路径更改为绝对路径 假设您的spark安装在mac的名为/Applic

我试着在上面举例

我在shell上尝试了以下命令:

val df = sqlContext.read.json("examples/src/main/resources/people.json")
它给出一个错误:“作业中未指定输入路径”

为什么会出现这个问题?我该怎么处理呢


谢谢。

该错误意味着您没有在正确的文件夹中启动spark shell,因为该路径是相对路径。要解决此问题,您需要将工作目录更改为spark主目录,或者将路径更改为绝对路径

假设您的spark安装在mac的名为
/Applications/spark-1.6.1
的文件夹中,那么您可以先导航到shell中的该文件夹,然后运行
spark shell
或运行:

scala> val df = sqlContext.read.json("/Applications/spark-1.6.1/examples/src/main/resources/people.json")

scala> df.show()
+----+-------+
| age|   name|
+----+-------+
|null|Michael|
|  30|   Andy|
|  19| Justin|
+----+-------+

嗯,我不知道。我是spark的新手,我不了解警告页面上的所有这些示例都假设您从提取spark的目录启动spark shell,因此如果您指定给JSON文件的路径不存在,那么您会得到“未指定输入路径”