Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache spark 排号超过。。。spark中无界前后行之间的行不兼容_Apache Spark_Exception_Apache Spark Sql_Row Number - Fatal编程技术网

Apache spark 排号超过。。。spark中无界前后行之间的行不兼容

Apache spark 排号超过。。。spark中无界前后行之间的行不兼容,apache-spark,exception,apache-spark-sql,row-number,Apache Spark,Exception,Apache Spark Sql,Row Number,我有一个类似于row_number的查询,它是按列名按列名排序的分区,在无界的前一行和无界的后一行之间 查询在配置单元中工作,但在Spark SQL和Spark 1.6和2.0中都不工作 我想知道如何在spark代码中实现这个逻辑。 此查询是否有效,以便在具有row\ U number函数的帧之间具有行 窗口函数调用的正确语法需要在框架定义周围加括号。 row_number需要在无界的前一行和当前行框架之间的行,在这种情况下是默认值,因此可以省略。 合并: row_number() OVER (

我有一个类似于row_number的查询,它是按列名按列名排序的分区,在无界的前一行和无界的后一行之间

查询在配置单元中工作,但在Spark SQL和Spark 1.6和2.0中都不工作

我想知道如何在spark代码中实现这个逻辑。 此查询是否有效,以便在具有row\ U number函数的帧之间具有行

窗口函数调用的正确语法需要在框架定义周围加括号。 row_number需要在无界的前一行和当前行框架之间的行,在这种情况下是默认值,因此可以省略。 合并:

row_number() OVER (PARTITION BY foo ORDER BY bar)

框架之间的行是否可以使用row_number功能?我在尝试使用row_number函数在无界前后行之间使用行时出错。