如何在Scala文件中使用shell脚本中定义的变量?
我有一个脚本文件,其中定义了一些日期变量,在同一个文件中,我使用sparkshell命令调用Scala代码 shell文件中定义的变量将用作Scala代码Spark.sql中的日期值过滤器 但是,我从Scala代码中得到一个错误,该值找不到。我试过了,但这个问题仍然存在 你能帮我一下吗 感谢和问候如何在Scala文件中使用shell脚本中定义的变量?,scala,shell,apache-spark,scripting,apache-spark-sql,Scala,Shell,Apache Spark,Scripting,Apache Spark Sql,我有一个脚本文件,其中定义了一些日期变量,在同一个文件中,我使用sparkshell命令调用Scala代码 shell文件中定义的变量将用作Scala代码Spark.sql中的日期值过滤器 但是,我从Scala代码中得到一个错误,该值找不到。我试过了,但这个问题仍然存在 你能帮我一下吗 感谢和问候 Vimarsh首先需要在spark中传递文件路径作为参数,然后使用import java.util.Properties解析文件 然后,您可以获取键的值并将其保存在scala变量中 然后您可以在spa
Vimarsh首先需要在spark中传递文件路径作为参数,然后使用import java.util.Properties解析文件 然后,您可以获取键的值并将其保存在scala变量中 然后您可以在spark.sql中使用它作为spark.sqlsselect*从表中,其中d='${variable_name}'