Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 将pyspark数据帧的列转换为小写_Python_Apache Spark_Pyspark_Spark Dataframe - Fatal编程技术网

Python 将pyspark数据帧的列转换为小写

Python 将pyspark数据帧的列转换为小写,python,apache-spark,pyspark,spark-dataframe,Python,Apache Spark,Pyspark,Spark Dataframe,我在pyspark中有一个数据框,它有大写的列,如ID,COMPANY等等 我想将这些列名设置为id公司等等。根据需要将所有列转换为小写或大写 我希望这样做,使列的数据类型保持不变 我们如何做到这一点?使用DataFrame中的列字段 df = // load for col in df.columns: df = df.withColumnRenamed(col, col.lower()) 或者,正如@zero323所建议的那样: df.toDF(*[c.lower() for c

我在pyspark中有一个数据框,它有大写的列,如
ID
COMPANY
等等

我想将这些列名设置为
id
公司
等等。根据需要将所有列转换为小写或大写

我希望这样做,使列的数据类型保持不变


我们如何做到这一点?

使用DataFrame中的
字段

df = // load
for col in df.columns:
    df = df.withColumnRenamed(col, col.lower())
或者,正如@zero323所建议的那样:

df.toDF(*[c.lower() for c in df.columns])

如果
df.toDF(*[c.lower()表示df.columns中的c])
@zero323,会更便宜(可以说更优雅)df.toDF(*[c.lower()表示df.columns中的c])@zero323-谢谢,我已经编辑了答案。我必须学更多的Python;)您还可以使用生成器理解而不是构建列表,即do
df.toDF(*(c.lower()表示df.columns中的c))