Java Apache Spark-无法理解scala示例
我试图理解这个位置上的scala代码。(我来自java背景) 我觉得完全迷失在下面的部分Java Apache Spark-无法理解scala示例,java,arrays,scala,apache-spark,Java,Arrays,Scala,Apache Spark,我试图理解这个位置上的scala代码。(我来自java背景) 我觉得完全迷失在下面的部分 val pairs1 = sc.parallelize(0 until numMappers, numMappers).flatMap { p => val ranGen = new Random var arr1 = new Array[(Int, Array[Byte])](numKVPairs) for (i <- 0 until numKVPairs) { val
val pairs1 = sc.parallelize(0 until numMappers, numMappers).flatMap { p =>
val ranGen = new Random
var arr1 = new Array[(Int, Array[Byte])](numKVPairs)
for (i <- 0 until numKVPairs) {
val byteArr = new Array[Byte](valSize)
ranGen.nextBytes(byteArr)
arr1(i) = (ranGen.nextInt(Int.MaxValue), byteArr)
}
arr1
}.cache()
val pairs1=sc.parallelize(0到numappers,numappers)。flatMap{p=>
val ranGen=新随机变量
var arr1=新数组[(Int,数组[字节]](numKVPairs)
为了
只需创建一个大小为numKVPairs
且类型为(Int,array[Byte])
(一对Int
和字节数组)的数组
之后,arr1
被随机数据填充
var arr1 = new Array[(Int, Array[Byte])](numKVPairs)
创建类型为(Int,array[Byte])的成对数组。即成对数组的第一个元素类型为Int,第二个元素类型为array[Byte].谢谢Jean。这只是一个键值对数组。键值也可以是任何数据类型。在某种程度上,它类似于map。我说的对吗?我不确定Java是否有类似的东西。
var arr1 = new Array[(Int, Array[Byte])](numKVPairs)