Scala spark streaming Kafka集成的sbt未解决依赖关系

Scala spark streaming Kafka集成的sbt未解决依赖关系,scala,sbt,spark-streaming,spark-streaming-kafka,Scala,Sbt,Spark Streaming,Spark Streaming Kafka,我想与卡夫卡集成的火花流。我使用Spark 2.0.0版 但我得到了一个未解决的依赖项错误(“未解决的依赖项:org.apache.spark#spark-sql-kafka-0-10_2.11;2.0.0:未找到”) 我怎样才能使用这个软件包?还是我做错了什么/遗漏了什么 我的build.sbt文件: name := "Spark Streaming" version := "0.1" scalaVersion := "2.11.11" val sparkVersion = "2.0.0"

我想与卡夫卡集成的火花流。我使用Spark 2.0.0版

但我得到了一个未解决的依赖项错误(“未解决的依赖项:org.apache.spark#spark-sql-kafka-0-10_2.11;2.0.0:未找到”)

我怎样才能使用这个软件包?还是我做错了什么/遗漏了什么

我的build.sbt文件:

name := "Spark Streaming"
version := "0.1"
scalaVersion := "2.11.11"
val sparkVersion = "2.0.0"

libraryDependencies ++= Seq(
    "org.apache.spark" %% "spark-core" % sparkVersion,
    "org.apache.spark" %% "spark-sql" % sparkVersion,
    "org.apache.spark" %% "spark-streaming" % sparkVersion,
    "org.apache.spark" %% "spark-sql-kafka-0-10" % sparkVersion
)
libraryDependencies += "org.apache.spark" % "spark-streaming_2.11" % "2.0.0-preview"
谢谢你的帮助


我仍然在犯同样的错误。我仍然在犯同样的错误。接受的答案对你有用吗。我又犯了同样的错误。接受的答案对你有用吗。我又犯了同样的错误。
libraryDependencies += "org.apache.spark" % "spark-streaming-kafka-0-10_2.11" % "2.0.0"