如何在pyspark groupby agg查询中放置变量

如何在pyspark groupby agg查询中放置变量,pyspark,apache-spark-sql,pyspark-sql,Pyspark,Apache Spark Sql,Pyspark Sql,您好,我有一个查询,我想通过查询将变量数据放入分组中 我试着这样做,但不起作用 dd2=(dd1.groupBy("hours").agg({'%s':'%s'})%(columnname1,input1)) 在列名称中,1包含“总计”,输入1包含所需的聚合类型,如平均值或STDEV。 我希望此查询是动态的。试试这个 dd2=(dd1.groupBy("hours").agg({'{}'.format(columnname1):'{}'.format(input1)})) 我不确定你所说的动

您好,我有一个查询,我想通过查询将变量数据放入分组中

我试着这样做,但不起作用

dd2=(dd1.groupBy("hours").agg({'%s':'%s'})%(columnname1,input1))
在列名称中,1包含“总计”,输入1包含所需的聚合类型,如平均值或STDEV。 我希望此查询是动态的。

试试这个

dd2=(dd1.groupBy("hours").agg({'{}'.format(columnname1):'{}'.format(input1)}))

我不确定你所说的动态到底是什么意思,但我认为你要找的是更简单的
dd1.groupBy(“小时”).agg({columnname1:input1})
dd2=(dd1.groupBy(“小时”).agg({{{}.format(columnname1):{{}.format(input1)})
@Ben.T也许他的变量是可变的。但是谁知道呢。实际上我想让它成为动态的。就像用户要求的一样,比如平均值或标准偏差。它应该放在agg函数中。@Ben.T