Python 3.x 如何更改导出的默认数据类型?

Python 3.x 如何更改导出的默认数据类型?,python-3.x,pandas,dataframe,pyspark,databricks,Python 3.x,Pandas,Dataframe,Pyspark,Databricks,我在Databricks工作。在通过pySql查询数据之后,我想导出生成的数据帧。当我这样做时,它错误地导出了许多列中的1列,直到数据类型为止 我假设在导出之前,我必须指定此特定列应保持为int64类型。我该怎么做 这是我目前的代码: #Save File df.to_csv('/dbfs/FileStore/test.csv') #Download File https://dbc-xxx.cloud.databricks.com/test.csv 如前所述,下载时,one列从int

我在Databricks工作。在通过pySql查询数据之后,我想导出生成的数据帧。当我这样做时,它错误地导出了许多列中的1列,直到数据类型为止

我假设在导出之前,我必须指定此特定列应保持为int64类型。我该怎么做

这是我目前的代码:

  #Save File
df.to_csv('/dbfs/FileStore/test.csv')
  #Download File
https://dbc-xxx.cloud.databricks.com/test.csv
如前所述,下载时,one列从int64更改为float64,从而导致问题


感谢您的帮助

看起来您首先调用了
toPandas()
(速度非常慢),然后在pandas数据帧上调用了
到_csv
。问题可能是spark数据帧中的
null
值被转换为
nan
numpy.nan
是浮点值)。尽管如此,您最好在Spark端使用
df.write.csv()
,但这是另一回事。那么您的代码建议会解决这个问题,还是只是建议更好的代码质量?在任何情况下,需要采取什么措施才能使其发挥作用?请给出建议。如果你不知道或不知道你的最终目标是什么,就很难说。float64列导致了什么问题?你同意放弃南斯吗?你说的“工作”是什么意思?