在将spark streaming与kafka集成时,我在scala编程中遇到错误

在将spark streaming与kafka集成时,我在scala编程中遇到错误,scala,apache-spark,apache-kafka,spark-streaming,Scala,Apache Spark,Apache Kafka,Spark Streaming,我试图添加一些导入,但当我添加 import org.apache.spark.streaming.kafka.kafkautils显示以下错误 对象kafka不是对象org.apache.spark.streaming.kafka.kafkautils的成员 使用 scala ide 4.7 版本2.11.11, spark-2.3.0-bin-hadoop2.7 jar文件, 卡夫卡2.11罐, spark-streaming-kafka-0-10_2.11-2.3.0 jar如果您使用的是

我试图添加一些导入,但当我添加
import org.apache.spark.streaming.kafka.kafkautils
显示以下错误

对象kafka不是对象org.apache.spark.streaming.kafka.kafkautils的成员

使用 scala ide 4.7 版本2.11.11, spark-2.3.0-bin-hadoop2.7 jar文件, 卡夫卡2.11罐,
spark-streaming-kafka-0-10_2.11-2.3.0 jar

如果您使用的是s
park-streaming-kafka-0-10_2.11-2.3.0 jar
,那么KafkaUtils可以在
org.apache.spark.streaming.kafka010
这个软件包中找到。 如此重要

import org.apache.spark.streaming.kafka010.KafkaUtils
而不是

import org.apache.spark.streaming.kafka.kafkautils 

希望这次和平

谢谢Shankar,这解决了我的问题,但我在KafkaUtils.createDirectStream(ssc,“localhost:2181”,“spark streaming consumer group”,Map(“mytopic”->5))附近的val kafkastream=KafkaUtils.createDirectStream出现错误这是一个简单的示例,请尝试我根据示例尝试的这个示例。成功了。非常感谢。我没有在Pyspark工作。甚至我也使用了从pyspark.streaming.kafka010导入的KafkaUtils