Apache spark 如何从Spark Streaming写入HBase

Apache spark 如何从Spark Streaming写入HBase,apache-spark,hbase,spark-streaming,Apache Spark,Hbase,Spark Streaming,关于我的另一个问题“从Spark Streaming写入HBase”,有人建议我按照以下步骤从Spark Streaming写入HBase,这就是我所做的(根据需要进行修改),在运行Spark submit时,没有错误,但数据未写入HBase,如果您能找出我是否做错了什么以及如何纠正,我将向您展示代码: val conf = HBaseConfiguration.create() val jobConfig: JobConf = new JobConf(conf) jobConf

关于我的另一个问题“从Spark Streaming写入HBase”,有人建议我按照以下步骤从Spark Streaming写入HBase,这就是我所做的(根据需要进行修改),在运行Spark submit时,没有错误,但数据未写入HBase,如果您能找出我是否做错了什么以及如何纠正,我将向您展示代码:

val conf = HBaseConfiguration.create()
    val jobConfig: JobConf = new JobConf(conf)
    jobConfig.setOutputFormat(classOf[TableOutputFormat])
    jobConfig.set(TableOutputFormat.OUTPUT_TABLE, "tabName")
Dstream.foreachRDD(rdd =>
            rdd.map(Convert.toPut).saveAsHadoopDataset(jobConfig))
与:

object Convert{
  def toPut (parametre: (String,String)): (ImmutableBytesWritable, Put) = {
    val put = new Put(Bytes.toBytes(1))
    put.add(Bytes.toBytes("colfamily"), Bytes.toBytes(parametre._1), Bytes.toBytes(parametre._2))
    return (new ImmutableBytesWritable(Bytes.toBytes(1)), put)
  }
你能帮我找出我做错了什么吗?
提前谢谢你

你能展示完整的代码吗?@zsxwing差不多了,唯一缺少的是导入和启动StreamingContext的数据流是什么?你能打印
rdd的内容来检查是否有任何输入吗?是的,我用:ssc.start()ssc.waitivetermination()启动了上下文当我打印rdd时,它会显示出来,因此肯定有一个输入,这就是为什么我将HBase的配置放在那里,可能有一个错误