如何使用pyspark将字符串格式的日期转换为日期

如何使用pyspark将字符串格式的日期转换为日期,pyspark,apache-spark-sql,Pyspark,Apache Spark Sql,我正在尝试使用pyspark将列的字符串值(例如,D202000910.T000000)解析为日期格式。我尝试了以下操作,但结果返回null: select(to_date('ingest_id','DYYYYMMDD.THHMMSS') T000000部分总是有这样的文本吗?问:“D202000910.T000000”是什么格式?它当然不是符合ISO 8601的日期格式,是吗?只是想知道它是怎么来的/从哪里来的…@ernest,此列中的字符串值总是符合我提供的示例。如果您使用了错误的模式,请

我正在尝试使用pyspark将列的字符串值(例如,
D202000910.T000000
)解析为日期格式。我尝试了以下操作,但结果返回
null

select(to_date('ingest_id','DYYYYMMDD.THHMMSS')

T000000
部分总是有这样的文本吗?问:“D202000910.T000000”是什么格式?它当然不是符合ISO 8601的日期格式,是吗?只是想知道它是怎么来的/从哪里来的…@ernest,此列中的字符串值总是符合我提供的示例。如果您使用了错误的模式,请尝试
select(to_date('ingest_id','D'yyyyMMdd.'T'HHmmss))
@ernest_k,这就成功了!出于好奇,我在哪里可以找到对应于各种日期部分的模式值的参考/指南?