Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Java 如何对一组向量求和并在Spark中生成一个新向量_Java_Apache Spark_Spark Dataframe - Fatal编程技术网

Java 如何对一组向量求和并在Spark中生成一个新向量

Java 如何对一组向量求和并在Spark中生成一个新向量,java,apache-spark,spark-dataframe,Java,Apache Spark,Spark Dataframe,我正在使用Spark的Java API,并使用以下模式读取了大量数据: profits (Array of Double values): --------------------------------- [1.0,2.0,3.0] [2.0,3.0,4.0] [4,0,6.0] 一旦我有了一个数据帧,我想计算一个新的向量,它是所有向量的总和: Result: [7.0,11.0,7.0] 我在网上看到了一些用Scala和Python实现这一点的例子,但Java没有 val with

我正在使用Spark的Java API,并使用以下模式读取了大量数据:

profits (Array of Double values):
--------------------------------- 
[1.0,2.0,3.0] 
[2.0,3.0,4.0] 
[4,0,6.0]
一旦我有了一个数据帧,我想计算一个新的向量,它是所有向量的总和:

Result:
[7.0,11.0,7.0]
我在网上看到了一些用Scala和Python实现这一点的例子,但Java没有

val withIndex = profits.zipWithIndex // ((a,0),(b,1),(c,2))
我们需要使用索引作为键:

val indexKey = withIndex.map{case (k,v) => (v,k)}  //((0,a),(1,b),(2,c))
最后,

counts = indexKey.reduceByKey(lambda k, v: k + v)
我们需要使用索引作为键:

val indexKey = withIndex.map{case (k,v) => (v,k)}  //((0,a),(1,b),(2,c))
最后,

counts = indexKey.reduceByKey(lambda k, v: k + v)

嘿,这是scala,我在java中如何做嘿,这是scala,我在java中如何做