pyspark中部分数据帧的聚合
是否可以在部分数据帧上进行聚合? 或者,在给定的条件下,是否可以有效地拆分数据帧 假设我有一个如下所示的数据帧:pyspark中部分数据帧的聚合,pyspark,Pyspark,是否可以在部分数据帧上进行聚合? 或者,在给定的条件下,是否可以有效地拆分数据帧 假设我有一个如下所示的数据帧: +-------------+-----------------+-----------+----------------+-----------+ | epoch_ms|ID | state | value 1 | value 2 | +-------------+-----------------+----------
+-------------+-----------------+-----------+----------------+-----------+
| epoch_ms|ID | state | value 1 | value 2 |
+-------------+-----------------+-----------+----------------+-----------+
|1588119659000| 3489692692 | 3.0| 0.239999 | 11.2699 |
|1587497991000| 3489692692 | 2.0| 0.159999 | 21.6999 |
|1587864812000| 3489692692 | 2.0| 0.959999 | 359.649 |
|1587581329000| 3489692692 | 1.0| 1.039999 | 336.209 |
|1587581329000| 3489692692 | 3.0| 1.039999 | 336.299 |
|1587581329000| 3489692692 | 1.0| 2.799999 | 336.209 |
有没有一种有效的方法可以通过“事件”进行拆分,假设事件以state=3开始,以state=1结束,我希望在这些状态之间包含更小的数据帧,在这种情况下:
+-------------+-----------------+-----------+----------------+-----------+
| epoch_ms|ID | state | value 1 | value 2 |
+-------------+-----------------+-----------+----------------+-----------+
|1588119659000| 3489692692 | 3.0| 0.239999 | 11.2699 |
|1587497991000| 3489692692 | 2.0| 0.159999 | 21.6999 |
|1587864812000| 3489692692 | 2.0| 0.959999 | 359.649 |
|1587581329000| 3489692692 | 1.0| 1.039999 | 336.209 |
及
我的最终目标是拥有另一个数据帧,它根据开始和结束历元对值进行聚合,类似于:
+-------------+---------------+-------------+--------------+-------------+
| ID |start epoch |end_epoch | max(value 1) | max(value 2)|
+-------------+---------------+-------------+--------------+-------------+
|3489692692 |1588119659000 |1587581329000|1.039999 |359.649 |
|3489692692 |1587581329000 |1587581329000|2.799999 |336.299 |
+-------------+---------------+-------------+--------------+-------------+
| ID |start epoch |end_epoch | max(value 1) | max(value 2)|
+-------------+---------------+-------------+--------------+-------------+
|3489692692 |1585766054000 |1587581329000|1.039999 |359.649 |
|3489692692 |1587581339000 |1587581329000|2.799999 |336.299 |
|3489692670 |1588088096000 |1588088199000|3.965424 |299.578 |
以前,当我没有处理太多数据时,我使用pandas在数据帧上迭代并逐行构造新的数据帧,但是,是的,这不是很有效。
任何能给我指出正确方向的暗示都将不胜感激
-------###更新###----------
我想下面是我正在处理的数据的一个更好的示例:
+-------------+-----------------+-----------+----------------+-----------+
| epoch_ms|ID | state | value 1 | value 2 |
+-------------+-----------------+-----------+----------------+-----------+
|1585766054000| 3489692692 | 3.0| 0.159999 | 7.58996 |
|1585766055000| 3489692692 | 3.0| 0.239999 | 11.2699 |
|1585766058000| 3489692692 | 3.0| 0.135489 | 13.8790 |
|1587497991000| 3489692692 | 2.0| 0.159999 | 21.6999 |
|1587864812000| 3489692692 | 2.0| 0.959999 | 359.649 |
|1587581329000| 3489692692 | 1.0| 1.039999 | 336.209 |
|1587581339000| 3489692692 | 3.0| 1.039999 | 336.299 |
|1587581329000| 3489692692 | 1.0| 2.799999 | 336.209 |
|1588088096000| 3489692670 | 3.0| 2.869564 | 285.963 |
|1588088099000| 3489692670 | 2.0| 0.758753 | 299.578 |
|1588088199000| 3489692670 | 1.0| 3.965424 | 5.89677 |
需要考虑的事项:
- 事件以状态3开始,以状态1结束
- 状态可以重复,例如,状态3或2可以在启动后多次出现,但事件必须包含所有状态,直到状态1出现为止
- 状态1之后的其他状态可能会出现,多次出现状态1或状态2,但下一个事件在状态再次为3之前不会启动,状态1和状态3(上一个事件的结束和新事件的开始)之间的任何内容都应忽略
- 如果数据帧结束时的状态不是3,则应假定在结束时出现3
- 可以有多个id,数据帧按历元和id排序
+-------------+---------------+-------------+--------------+-------------+
| ID |start epoch |end_epoch | max(value 1) | max(value 2)|
+-------------+---------------+-------------+--------------+-------------+
|3489692692 |1588119659000 |1587581329000|1.039999 |359.649 |
|3489692692 |1587581329000 |1587581329000|2.799999 |336.299 |
+-------------+---------------+-------------+--------------+-------------+
| ID |start epoch |end_epoch | max(value 1) | max(value 2)|
+-------------+---------------+-------------+--------------+-------------+
|3489692692 |1585766054000 |1587581329000|1.039999 |359.649 |
|3489692692 |1587581339000 |1587581329000|2.799999 |336.299 |
|3489692670 |1588088096000 |1588088199000|3.965424 |299.578 |
拆分会违反直觉,您应该使用内置的聚合函数(
window+groupBy
)来表达您的逻辑。只要数据按照您呈现的方式排序,代码就可以正常工作(因为无法确定某些行的排序,因为对于相同状态,您有不同的历元(第2、3行)。其逻辑是使用一个增量和
,并使用状态上的条件来查找您的分组,以便开始/结束
。请尝试并使用lmk
df.show() #sampledata
#+-------------+----------+-----+--------+-------+
#| epoch_ms| ID|state| value 1|value 2|
#+-------------+----------+-----+--------+-------+
#|1588119659000|3489692692| 3.0|0.239999|11.2699|
#|1587497991000|3489692692| 2.0|0.159999|21.6999|
#|1587864812000|3489692692| 2.0|0.959999|359.649|
#|1587581329000|3489692692| 1.0|1.039999|336.209|
#|1587581329000|3489692692| 3.0|1.039999|336.299|
#|1587581329000|3489692692| 1.0|2.799999|336.209|
#+-------------+----------+-----+--------+-------+
from pyspark.sql import functions as F
from pyspark.sql.window import Window
w=Window().partitionBy("ID").orderBy(F.lit(1))
w2=Window().partitionBy("ID").orderBy("rowNum")
df.withColumn("rowNum", F.row_number().over(w))\
.withColumn("inc_sum", F.sum(F.when(F.col("state")==3,F.lit(1)).otherwise(F.lit(0))).over(w2))\
.groupBy("inc_sum").agg(F.first("ID").alias("ID"),\
F.max("epoch_ms").alias("start_epoch"),\
F.min("epoch_ms").alias("end_epoch"),F.max("value 1").alias("max_value1"),\
F.max("value 2").alias("max_value2")).drop("inc_sum").show()
#+-------+----------+-------------+-------------+----------+----------+
#|inc_sum| ID| start_epoch| end_epoch|max_value1|max_value2|
#+-------+----------+-------------+-------------+----------+----------+
#| 1|3489692692|1588119659000|1587497991000| 1.039999| 359.649|
#| 2|3489692692|1587581329000|1587581329000| 2.799999| 336.299|
#+-------+----------+-------------+-------------+----------+----------+
更新:
试试这个。我使用状态为3的滞后条件!=3来挑选事件的开始,然后在它上加一个增量和来得到我们的组
df.show() #sampledata
#+-------------+----------+-----+--------+-------+
#| epoch_ms| ID|state| value 1|value 2|
#+-------------+----------+-----+--------+-------+
#|1585766054000|3489692692| 3.0|0.159999|7.58996|
#|1585766055000|3489692692| 3.0|0.239999|11.2699|
#|1585766058000|3489692692| 3.0|0.135489| 13.879|
#|1587497991000|3489692692| 2.0|0.159999|21.6999|
#|1587864812000|3489692692| 2.0|0.959999|359.649|
#|1587581329000|3489692692| 1.0|1.039999|336.209|
#|1587581339000|3489692692| 3.0|1.039999|336.299|
#|1587581329000|3489692692| 1.0|2.799999|336.209|
#|1588088096000|3489692670| 3.0|2.869564|285.963|
#|1588088099000|3489692670| 2.0|0.758753|299.578|
#|1588088199000|3489692670| 1.0|3.965424|5.89677|
#+-------------+----------+-----+--------+-------+
from pyspark.sql import functions as F
from pyspark.sql.window import Window
w=Window().orderBy("rowNum")
df.withColumn("rowNum", F.monotonically_increasing_id())\
.withColumn("inc_sum", F.sum(F.when((F.col("state")==3) & (F.lag("state").over(w)!=3)\
,F.lit(1)).otherwise(F.lit(0)))\
.over(w))\
.groupBy("inc_sum").agg(F.first("ID").alias("ID"),\
F.first("epoch_ms").alias("start_epoch"),\
F.last("epoch_ms").alias("end_epoch"),F.max("value 1").alias("max_value1"),\
F.max("value 2").alias("max_value2")).drop("inc_sum").show()
#+----------+-------------+-------------+----------+----------+
#| ID| start_epoch| end_epoch|max_value1|max_value2|
#+----------+-------------+-------------+----------+----------+
#|3489692692|1585766054000|1587581329000| 1.039999| 359.649|
#|3489692692|1587581339000|1587581329000| 2.799999| 336.299|
#|3489692670|1588088096000|1588088199000| 3.965424| 299.578|
#+----------+-------------+-------------+----------+----------+
这无疑是朝着正确的方向迈出的一步,但我得到了一些意想不到的结果,我认为这是因为当事件持续很长时间时,状态可能会重复多次。你能想出一种方法来解释这一点吗?因此状态的变化可能会发生多次相同的状态可能会记录在事件的行上多次最后的时间逻辑取决于状态的开始,即3,所以你是说3可以在连续的行中多次出现?如果是这样的话,我会更新解决方案,所以如果你能提供几行你所指的事件,会有帮助的,谢谢你的朋友。我会更新问题本身在上面^^