Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 有比去年更好的解决办法吗?_Python_Apache Spark_Pyspark_Spark Koalas - Fatal编程技术网

Python 有比去年更好的解决办法吗?

Python 有比去年更好的解决办法吗?,python,apache-spark,pyspark,spark-koalas,Python,Apache Spark,Pyspark,Spark Koalas,是否有比df['weekofyear']=df['date'].dt.weekofyear更好的解决方案 此解决方案的问题是,有时,n年最后一周之后但n+1年第一周之前的天数被计为第1周,而不是第0周 我与Pypark和考拉(不允许熊猫)合作 以下是一个例子: 如您所见,第一列是日期,第二列是周,第三列是月,最后一列是年。不确定这是否是您想要的。。。?我想您可以在时使用case替换不需要的一年中的一周值 df['weekofyear'] = df['date'].dt.weekofyear

是否有比df['weekofyear']=df['date'].dt.weekofyear更好的解决方案

此解决方案的问题是,有时,n年最后一周之后但n+1年第一周之前的天数被计为第1周,而不是第0周

我与Pypark和考拉(不允许熊猫)合作

以下是一个例子:


如您所见,第一列是日期,第二列是周,第三列是月,最后一列是年。

不确定这是否是您想要的。。。?我想您可以在时使用
case替换不需要的一年中的一周值

df['weekofyear'] = df['date'].dt.weekofyear

df2 = ks.sql("""
select
    date,
    case when weekofyear = 1 and month = 12 then 53 else weekofyear end as weekofyear,
    month,
    year
from {df}""")

你能举例说明一些有这个问题的日期吗?当然,我编辑了postDate-Weekofyear-Month-Year。但问题只在第二栏。你为什么希望他们是第0周。。。?从技术上讲,它们是在同一周,虽然一年中是分开的。我想你希望它们是第53周,而不是第0周,对吗?@usen92i我添加了另一种方式,更像蟒蛇和熊猫-看看这是否对你有效?当我尝试第二种方式时,我得到一个错误:“Series”对象不支持项assignment@Ousen92i可以反正我也没想到会有效果,第一个怎么样?