Python 查找互连行值的列名-Spark

Python 查找互连行值的列名-Spark,python,apache-spark,pyspark,Python,Apache Spark,Pyspark,我有一个符合以下结构的Spark数据框架: +------+-----------+-----------+-----------+------+ |ID | Name1 | Name2 | Name3 | Y | +------+-----------+-----------+-----------+------+ | 1 | A,1 | B,1 | C,4 | B |

我有一个符合以下结构的Spark数据框架:

    +------+-----------+-----------+-----------+------+
    |ID    |   Name1   |   Name2   |   Name3   |   Y  |
    +------+-----------+-----------+-----------+------+
    |   1  |       A,1 |       B,1 |       C,4 |   B  |
    |   2  |       D,2 |       E,2 |       F,8 |   D  |
    |   3  |       G,5 |       H,2 |       I,3 |   H  |
    +------+-----------+-----------+-----------+------+
对于我想找到的每一行,Y的值在哪一列中表示为第一个元素。因此,理想情况下,我希望检索如下列表:
[Name2,Name1,Name2]

我不确定首先转换为RDD,然后使用map函数并将结果转换回DataFrame是如何工作的,以及是否工作


欢迎提出任何想法。

您可能可以尝试以下代码:

df.show()                                                                                                         
+---+-----+-----+-----+---+                                                     
| ID|Name1|Name2|Name3|  Y|
+---+-----+-----+-----+---+
|  1|  A,1|  B,1|  C,4|  B|
|  2|  D,2|  E,2|  F,8|  D|
|  3|  G,5|  H,2|  I,3|  H|
+---+-----+-----+-----+---+

from pyspark.sql import functions as F

name_cols = ["Name1", "Name2", "Name3"]
cond = F

for col in name_cols: 
     cond = cond.when(F.split(F.col(col),',').getItem(0) == F.col("Y"), col)

df.withColumn("whichName", cond).show()

+---+-----+-----+-----+---+---------+
| ID|Name1|Name2|Name3|  Y|whichName|
+---+-----+-----+-----+---+---------+
|  1|  A,1|  B,1|  C,4|  B|    Name2|
|  2|  D,2|  E,2|  F,8|  D|    Name1|
|  3|  G,5|  H,2|  I,3|  H|    Name2|
+---+-----+-----+-----+---+---------+

Name1
Name2
Name3
的类型是什么?列名是直接的字符串。很好。你能告诉我
cond=F
的作用吗?这只是
for
循环的第一步