Scala spark提交选项--文件
我正试图通过文件加载配置文件 然后我看到了外面Scala spark提交选项--文件,scala,apache-spark,yarn,typesafe-config,Scala,Apache Spark,Yarn,Typesafe Config,我正试图通过文件加载配置文件 然后我看到了外面 SparkFiles.getRootDirectory() SparkFiles.get("tables.conf") 这是正常的路径 但是当我初始化配置并想要使用它时 val conf = ConfigFactory.parseFile(newjava.io.File(SparkFiles.get("tables.conf"))) conf.getConfig("custom-context") 我捕获异常“找不到密钥的配置设置” Spark
SparkFiles.getRootDirectory()
SparkFiles.get("tables.conf")
这是正常的路径
但是当我初始化配置并想要使用它时
val conf = ConfigFactory.parseFile(newjava.io.File(SparkFiles.get("tables.conf")))
conf.getConfig("custom-context")
我捕获异常“找不到密钥的配置设置”
Spark版本2.1.0
tables.conf:
custom-context {
history-type {
ods=true
}
}
你能帮我一下吗?你能试试--conf“spark.warn.dist.files=fairscheduler.xml”而不是--filesshx,但它对我不起作用吗?你可以把你的conf文件添加到你的资源文件夹中,然后试试对我有效的ConfigFactory.load()。但你们有什么理由要把你们的配置文件交给spark吗?是的,当我把配置文件放到资源中时,一切都正常。但我需要的是,那是一个包裹。
custom-context {
history-type {
ods=true
}
}