Apache spark 如何播放卡夫卡->;齐柏林飞艇->;火花与当前版本
我有一个Kafka 2.3消息代理,希望对Spark中的消息数据进行一些处理。首先,我想使用集成在齐柏林飞艇0.8.1中的Spark 2.4.0,并想使用齐柏林飞艇笔记本进行快速原型制作 对于这个流任务,我需要spark>2.3的“spark-streaming-kafka-0-10”,因为它只支持Java和Scale(而不支持Python)。但齐柏林飞艇中没有默认的Java或Scale解释器 如果我尝试此代码(取自) 我得到以下错误 在类路径中找不到Spark Streaming的Kafka库。试试看 下面是一个例子Apache spark 如何播放卡夫卡->;齐柏林飞艇->;火花与当前版本,apache-spark,pyspark,apache-kafka,spark-streaming,apache-zeppelin,Apache Spark,Pyspark,Apache Kafka,Spark Streaming,Apache Zeppelin,我有一个Kafka 2.3消息代理,希望对Spark中的消息数据进行一些处理。首先,我想使用集成在齐柏林飞艇0.8.1中的Spark 2.4.0,并想使用齐柏林飞艇笔记本进行快速原型制作 对于这个流任务,我需要spark>2.3的“spark-streaming-kafka-0-10”,因为它只支持Java和Scale(而不支持Python)。但齐柏林飞艇中没有默认的Java或Scale解释器 如果我尝试此代码(取自) 我得到以下错误 在类路径中找不到Spark Streaming的Kafka库
为什么不呢?您确定要使用Spark Streaming而不是Spark Structured Streaming吗?齐柏林飞艇的默认Spark解释器是Scala,不确定您在哪里发现它不存在。因此,Structured Streaming确实支持Python作为提示。我尝试过结构化流媒体,但也无法实现:为什么不呢?您确定要使用Spark Streaming而不是Spark Structured Streaming吗?齐柏林飞艇的默认Spark解释器是Scala,不确定您在哪里发现它不存在。因此,Structured Streaming确实支持Python作为提示。我尝试了结构化流媒体,但也无法实现:
%spark.pyspark
from pyspark import SparkContext
from pyspark.streaming import StreamingContext
from pyspark.streaming.kafka import KafkaUtils
import json
sc.setLogLevel("WARN")
ssc = StreamingContext(sc, 60)
kafkaStream = KafkaUtils.createStream(ssc, 'localhost:9092', 'spark-streaming', {'test':1})