Date PySpark:将字符串转换为日期并分配给变量-->;子集数据帧
我尝试使用以下代码对我的数据进行子集,以便它只提供从6/1到昨天的日期范围:Date PySpark:将字符串转换为日期并分配给变量-->;子集数据帧,date,variables,casting,pyspark,subset,Date,Variables,Casting,Pyspark,Subset,我尝试使用以下代码对我的数据进行子集,以便它只提供从6/1到昨天的日期范围: day_1 = '2018-06-01' df = df.where((F.col('report_date') >= day_1) & (F.col('report_date') < F.current_date())) day_1='2018-06-01' df=df.其中((F.col(‘报告日期’)>=第1天)和(F.col(‘报告日期’)=F.lit(day_1))&(F.col('r
day_1 = '2018-06-01'
df = df.where((F.col('report_date') >= day_1) & (F.col('report_date') < F.current_date()))
day_1='2018-06-01'
df=df.其中((F.col(‘报告日期’)>=第1天)和(F.col(‘报告日期’)
我得到以下错误:AnalysisException:u“无法解析”
2018-06-01
“给定输入列您可以使用sql函数中的lit方法创建人工列
df = df.where((F.col('report_date') >= F.lit(day_1)) & (F.col('report_date') < F.current_date()))
df=df.where((F.col('report_date')>=F.lit(day_1))&(F.col('report_date')
您能为您的数据场采集数据样本吗