Java 如何对一组向量求和并在Spark中生成一个新向量
我正在使用Spark的Java API,并使用以下模式读取了大量数据:Java 如何对一组向量求和并在Spark中生成一个新向量,java,apache-spark,spark-dataframe,Java,Apache Spark,Spark Dataframe,我正在使用Spark的Java API,并使用以下模式读取了大量数据: profits (Array of Double values): --------------------------------- [1.0,2.0,3.0] [2.0,3.0,4.0] [4,0,6.0] 一旦我有了一个数据帧,我想计算一个新的向量,它是所有向量的总和: Result: [7.0,11.0,7.0] 我在网上看到了一些用Scala和Python实现这一点的例子,但Java没有 val with
profits (Array of Double values):
---------------------------------
[1.0,2.0,3.0]
[2.0,3.0,4.0]
[4,0,6.0]
一旦我有了一个数据帧,我想计算一个新的向量,它是所有向量的总和:
Result:
[7.0,11.0,7.0]
我在网上看到了一些用Scala和Python实现这一点的例子,但Java没有
val withIndex = profits.zipWithIndex // ((a,0),(b,1),(c,2))
我们需要使用索引作为键:
val indexKey = withIndex.map{case (k,v) => (v,k)} //((0,a),(1,b),(2,c))
最后,
counts = indexKey.reduceByKey(lambda k, v: k + v)
我们需要使用索引作为键:
val indexKey = withIndex.map{case (k,v) => (v,k)} //((0,a),(1,b),(2,c))
最后,
counts = indexKey.reduceByKey(lambda k, v: k + v)
嘿,这是scala,我在java中如何做嘿,这是scala,我在java中如何做