Apache spark ApacheSpark从字符串创建顶点

Apache spark ApacheSpark从字符串创建顶点,apache-spark,spark-graphx,Apache Spark,Spark Graphx,给一串 val s = "My-Spark-App" 如何使用Spark按以下方式创建顶点 “My-”、“y-S”、“-Sp”、“Spa”、“par”、“ark”、“rk-”、“k-A”、“-Ap”、“App” 这个问题可以并行处理吗?这只是一个简单的在字符串上滑动的问题: val n:Int=3 val顶点:Seq[(顶点ID,字符串)]=s.滑动(n) zipWithIndex先生 .map{case(s,i)=>(i.toLong,s)} 托塞克先生 sc.parallelize(顶点)

给一串

val s = "My-Spark-App"
如何使用Spark按以下方式创建顶点

“My-”、“y-S”、“-Sp”、“Spa”、“par”、“ark”、“rk-”、“k-A”、“-Ap”、“App”


这个问题可以并行处理吗?

这只是一个简单的在字符串上滑动的问题:

val n:Int=3
val顶点:Seq[(顶点ID,字符串)]=s.滑动(n)
zipWithIndex先生
.map{case(s,i)=>(i.toLong,s)}
托塞克先生
sc.parallelize(顶点)
这个问题可以并行化吗

是的,它可以,但如果它是一个字符串,它很可能没有意义。不过,如果您愿意:

import org.apache.spark.rdd.rdd
val顶点:RDD[(顶点ID,字符串)]=sc.parallelize(s)
.滑动(n)
zipWithIndex先生
.map{case(cs,i)=>(i,cs.mkString)}

只需在字符串上滑动即可:

val n:Int=3
val顶点:Seq[(顶点ID,字符串)]=s.滑动(n)
zipWithIndex先生
.map{case(s,i)=>(i.toLong,s)}
托塞克先生
sc.parallelize(顶点)
这个问题可以并行化吗

是的,它可以,但如果它是一个字符串,它很可能没有意义。不过,如果您愿意:

import org.apache.spark.rdd.rdd
val顶点:RDD[(顶点ID,字符串)]=sc.parallelize(s)
.滑动(n)
zipWithIndex先生
.map{case(cs,i)=>(i,cs.mkString)}

只需在字符串上滑动即可:

val n:Int=3
val顶点:Seq[(顶点ID,字符串)]=s.滑动(n)
zipWithIndex先生
.map{case(s,i)=>(i.toLong,s)}
托塞克先生
sc.parallelize(顶点)
这个问题可以并行化吗

是的,它可以,但如果它是一个字符串,它很可能没有意义。不过,如果您愿意:

import org.apache.spark.rdd.rdd
val顶点:RDD[(顶点ID,字符串)]=sc.parallelize(s)
.滑动(n)
zipWithIndex先生
.map{case(cs,i)=>(i,cs.mkString)}

只需在字符串上滑动即可:

val n:Int=3
val顶点:Seq[(顶点ID,字符串)]=s.滑动(n)
zipWithIndex先生
.map{case(s,i)=>(i.toLong,s)}
托塞克先生
sc.parallelize(顶点)
这个问题可以并行化吗

是的,它可以,但如果它是一个字符串,它很可能没有意义。不过,如果您愿意:

import org.apache.spark.rdd.rdd
val顶点:RDD[(顶点ID,字符串)]=sc.parallelize(s)
.滑动(n)
zipWithIndex先生
.map{case(cs,i)=>(i,cs.mkString)}

谢谢您的回答。如果字符串是巨大的,这有意义吗?如果巨大意味着千兆字节(2^32-1个元素是一个限制),那么当然可以。谢谢你的回答。如果字符串是巨大的,这有意义吗?如果巨大意味着千兆字节(2^32-1个元素是一个限制),那么当然可以。谢谢你的回答。如果字符串是巨大的,这有意义吗?如果巨大意味着千兆字节(2^32-1个元素是一个限制),那么当然可以。谢谢你的回答。如果字符串是巨大的,这有意义吗?如果巨大意味着千兆字节(2^32-1个元素是一个限制),那么请确定。