Apache spark 如何通过apache spark java代码从kafka消费者获取消息?

Apache spark 如何通过apache spark java代码从kafka消费者获取消息?,apache-spark,Apache Spark,我试图使用来自卡夫卡主题的消息,并将它们存储在hadoop系统spark submit中的hdfs文件中。我失败了。这是我试过的 JavaInputDStream消息=KafkaUtils.createDirectStream( jssc, LocationStrategies.PreferConsistent(), ConsumerStrategies.Subscribe(TopicSet,kafkaParams)); JavadStreamLines=messages.map(新函数(){

我试图使用来自卡夫卡主题的消息,并将它们存储在hadoop系统spark submit中的hdfs文件中。我失败了。这是我试过的

JavaInputDStream消息=KafkaUtils.createDirectStream(
jssc,
LocationStrategies.PreferConsistent(),
ConsumerStrategies.Subscribe(TopicSet,kafkaParams));
JavadStreamLines=messages.map(新函数(){
@凌驾
公共字符串调用(ConsumerRecord kafkaRecord)引发异常{
返回kafkaRecord.value();
}
});

欢迎来到SO。如果在发布问题时也能包含错误,那就太好了。:)