Python 如何在pyspark中将列的数据类型从object转换为dataframe的vector?

Python 如何在pyspark中将列的数据类型从object转换为dataframe的vector?,python,pandas,vector,pyspark,Python,Pandas,Vector,Pyspark,我有一个熊猫数据框,它在一列中有向量,它的列数据类型是object,我想把它的数据类型转换成向量 t["res1"][1] 其产量为- [0.350562388776, 0.203056015074, -0.313145598397] 其数据类型为 res1 404290 non-null object 我希望它的数据类型是向量。 我知道如何使用spark dataframe,但不知道如何使用pandas dataframe。 请帮助向量是什么意思……向量在python中是元组。尝试tup

我有一个熊猫数据框,它在一列中有向量,它的列数据类型是object,我想把它的数据类型转换成向量

t["res1"][1]
其产量为-

[0.350562388776, 0.203056015074, -0.313145598397]
其数据类型为

res1 404290 non-null object
我希望它的数据类型是向量。 我知道如何使用spark dataframe,但不知道如何使用pandas dataframe。
请帮助

向量是什么意思……向量在python中是元组。尝试
tuple(t[“res1”][1])
我想要res1 404290非空向量,它是一个列的数据类型,类似于res1 404290非空对象。我是用spark dataframe做的,但不知道pandas dataframe是什么意思。向量在python中是元组。尝试
tuple(t[“res1”][1])
我想要res1 404290非空向量,它是一个列的数据类型,类似于res1 404290非空对象。我是用spark数据帧做的,但不知道熊猫数据帧。