Scala 如何使用SQL语句中使用的参数提交Spark SQL应用程序?
我想创建一个Scala文件,其中包含多个SQL语句,并且每条语句都有很少的参数。我想使用shell文件以编程方式执行/提交该文件Scala 如何使用SQL语句中使用的参数提交Spark SQL应用程序?,scala,apache-spark,apache-spark-sql,Scala,Apache Spark,Apache Spark Sql,我想创建一个Scala文件,其中包含多个SQL语句,并且每条语句都有很少的参数。我想使用shell文件以编程方式执行/提交该文件 import org.apache.spark.sql.hive.HiveContext; val sqlContext = new HiveContext(sc); val total=sqlContext.sql(s"select sum(amount) from table1 where location=$loc_var"); 用于命令行参数处理,并在Sca
import org.apache.spark.sql.hive.HiveContext;
val sqlContext = new HiveContext(sc);
val total=sqlContext.sql(s"select sum(amount) from table1 where location=$loc_var");
用于命令行参数处理,并在Scala应用程序中使用它们,例如,
loc\u var
如果我正确理解您的问题,您可以使用字符串连接附加输入参数
//Capture input argument inside scala file
val loc_var = args(0)
val total=sqlContext.sql("select sum(amount) from table1 where location='"+loc_var+"'");
谢谢我得到了它。这很有帮助。我真的很感谢你的帮助