在将spark streaming与kafka集成时,我在scala编程中遇到错误
我试图添加一些导入,但当我添加在将spark streaming与kafka集成时,我在scala编程中遇到错误,scala,apache-spark,apache-kafka,spark-streaming,Scala,Apache Spark,Apache Kafka,Spark Streaming,我试图添加一些导入,但当我添加 import org.apache.spark.streaming.kafka.kafkautils显示以下错误 对象kafka不是对象org.apache.spark.streaming.kafka.kafkautils的成员 使用 scala ide 4.7 版本2.11.11, spark-2.3.0-bin-hadoop2.7 jar文件, 卡夫卡2.11罐, spark-streaming-kafka-0-10_2.11-2.3.0 jar如果您使用的是
import org.apache.spark.streaming.kafka.kafkautils
显示以下错误
对象kafka不是对象org.apache.spark.streaming.kafka.kafkautils的成员
使用
scala ide 4.7
版本2.11.11,
spark-2.3.0-bin-hadoop2.7 jar文件,
卡夫卡2.11罐,
spark-streaming-kafka-0-10_2.11-2.3.0 jar如果您使用的是s
park-streaming-kafka-0-10_2.11-2.3.0 jar
,那么KafkaUtils可以在org.apache.spark.streaming.kafka010
这个软件包中找到。
如此重要
import org.apache.spark.streaming.kafka010.KafkaUtils
而不是
import org.apache.spark.streaming.kafka.kafkautils
希望这次和平 谢谢Shankar,这解决了我的问题,但我在KafkaUtils.createDirectStream(ssc,“localhost:2181”,“spark streaming consumer group”,Map(“mytopic”->5))附近的val kafkastream=KafkaUtils.createDirectStream出现错误这是一个简单的示例,请尝试我根据示例尝试的这个示例。成功了。非常感谢。我没有在Pyspark工作。甚至我也使用了从pyspark.streaming.kafka010导入的KafkaUtils