Scala 无法将属性文件从本地加载到Spark中:FileNotFound异常
我正在尝试学习IntelliJ IDEA上的Scala Spark JDBC程序。为此,我创建了一个Scala SBT项目,项目结构如下: 在类中编写JDBC连接参数之前,我首先尝试加载一个包含所有连接属性的属性文件,并尝试显示它们是否正确加载,如下所示:Scala 无法将属性文件从本地加载到Spark中:FileNotFound异常,scala,apache-spark,Scala,Apache Spark,我正在尝试学习IntelliJ IDEA上的Scala Spark JDBC程序。为此,我创建了一个Scala SBT项目,项目结构如下: 在类中编写JDBC连接参数之前,我首先尝试加载一个包含所有连接属性的属性文件,并尝试显示它们是否正确加载,如下所示: devUserName=username devPassword=password gpDriverClass=org.postgresql.Driver gpDevUrl=jdbc:url Caused by: java.io.FileN
devUserName=username
devPassword=password
gpDriverClass=org.postgresql.Driver
gpDevUrl=jdbc:url
Caused by: java.io.FileNotFoundException: file:/home/hmusr/ReconTest/inputdir/testconnection.properties (No such file or directory)
我的连接属性文件位于本地,而不是HDFS
[hmusr@ip-xx-xxx-xxx-x inputdir]$ pwd
/home/hmusr/ReconTest/inputdir
[hmusr@ip-xx-xxx-xxx-x inputdir]$ ls
testconnection.properties yearpartition_2.11-0.1.jar
代码:
build.sbt的内容:
name := "YearPartition"
version := "0.1"
scalaVersion := "2.11.8"
libraryDependencies ++= {
val sparkCoreVer = "2.2.0"
val sparkSqlVer = "2.2.0"
Seq(
"org.apache.spark" %% "spark-core" % sparkCoreVer % "provided" withSources(),
"org.apache.spark" %% "spark-sql" % sparkSqlVer % "provided" withSources(),
"org.json4s" %% "json4s-jackson" % "3.2.11" % "provided",
"org.apache.httpcomponents" % "httpclient" % "4.5.3"
)
}
由于我没有将数据写入或保存到任何文件中,也没有尝试显示属性文件的值,因此我使用以下代码执行代码:
SPARK_MAJOR_VERSION=2 spark-submit --class com.yearpartition.obj.PartitionRetrieval yearpartition_2.11-0.1.jar
但我收到文件未找到异常,如下所示:
devUserName=username
devPassword=password
gpDriverClass=org.postgresql.Driver
gpDevUrl=jdbc:url
Caused by: java.io.FileNotFoundException: file:/home/hmusr/ReconTest/inputdir/testconnection.properties (No such file or directory)
我试图修好它,但徒劳。有人能告诉我我在这里犯了什么错误以及如何纠正吗?从您的
conFile
字符串中删除file://
。它现在起作用了。。