Java 无法读取项目描述符:IntelliJ

Java 无法读取项目描述符:IntelliJ,java,maven,intellij-idea,apache-spark,apache-kafka,Java,Maven,Intellij Idea,Apache Spark,Apache Kafka,我的Maven POM文件遇到问题,无法找到spark依赖项,返回时出现错误: 未能读取org.apache.spark:spark-streaming-kafka_2.10:jar:1.2.1的项目描述符 我已经确认这不是任何公司防火墙的问题,因为所有其他依赖项都已正确加载,只有这一个 我还能够在我的maven设置中确认它正试图从以下回购中提取。我试图删除本地机器上的.m2回购协议以重新加载,但仍然没有骰子 附件下面是我的pom文件 <groupId>my.group.id<

我的Maven POM文件遇到问题,无法找到spark依赖项,返回时出现错误: 未能读取org.apache.spark:spark-streaming-kafka_2.10:jar:1.2.1的项目描述符

我已经确认这不是任何公司防火墙的问题,因为所有其他依赖项都已正确加载,只有这一个

我还能够在我的maven设置中确认它正试图从以下回购中提取。我试图删除本地机器上的.m2回购协议以重新加载,但仍然没有骰子

附件下面是我的pom文件

<groupId>my.group.id</groupId>
<artifactId>sentiment</artifactId>
<version>1.0-SNAPSHOT</version>
<name>NPITWITTER</name>

<properties>
</properties>

    <dependencies>
        <dependency>
            <groupId>com.sparkjava</groupId>
            <artifactId>spark-core</artifactId>
            <version>1.1.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-streaming-kafka_2.10</artifactId>
            <version>1.2.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.10</artifactId>
            <version>1.2.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-streaming_2.10</artifactId>
            <version>1.2.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-hive_2.10</artifactId>
            <version>1.2.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-sql_2.10</artifactId>
            <version>1.2.1</version>
        </dependency>


    </dependencies>
my.group.id
情绪
1.0-快照
NPITWITTER
com.sparkjava
火花芯
1.1.1
org.apache.spark
spark-streaming-kafka_2.10
1.2.1
org.apache.spark
spark-core_2.10
1.2.1
org.apache.spark
spark-2.10
1.2.1
org.apache.spark
spark-hive_2.10
1.2.1
org.apache.spark
spark-sql_2.10
1.2.1

由于启用了代理设置,解决了此问题。使用
mvn-U clean install重新运行

在Intellij,我也有同样的问题

我也做了代理设置,并运行了命令
mvn–U clean install
,但它不起作用。

我通过启用以下设置(以黄色突出显示)解决了问题

在Intellij中,转到文件->设置->构建、执行、部署->Maven 选中“始终更新快照”框


以下内容适用于IDEA 17

  • 转到
    文件
  • 选择
    Settings
  • 选择
    Build、Execution、Deployments
  • 从下拉列表中选择
    buildtools
  • 从下拉列表中选择
    Maven
  • 勾选
    始终更新快照
    复选框

我猜IntelliJ随附和ambedded Maven安装,因此只需确保您的IDE指向正确的Maven主目录:用户设置文件:值,这些值位于:

  • 转到
    文件
  • 选择
    Settings
  • 选择
    Build、Execution、Deployments
  • 从下拉列表中选择
    buildtools
  • 从下拉列表中选择
    Maven

转到文件=>Settings=>Build,Execution,Deployment=>Maven=>Maven主目录:从Bundled(Maven 3)更改为Bundled(Maven 2)我刚刚解决了这个问题。请进入
构建、执行、部署
的Maven选项卡,并将其设置为提供的设置


在我的案例中,这是与代理相关的问题。我强调了几个您可能需要验证和纠正的方面

  • “首选项”窗口中的Intellij代理设置
  • 来自~/.m2/settings.xml或/usr/local/ceral/maven//libexec/conf/settings.xml的maven settings.xml条目
  • 系统代理

  • 希望这会有所帮助。

    这个依赖关系正确存在:所以问题出在别处。对我来说,它似乎已经强制下载了所有子项目的所有依赖关系。Mac上的“IntelliJ IDEA->Preferences”对更新到2018年后的一个项目中出现的相同问题很有帮助。2.2我想知道很多离开intelli J IDEA,你救了我一晚。我还需要勾选
    使用插件注册表
    选项卡,然后它就可以工作了。事实上,这是与代理相关的设置。你的回答只为我节省了几个小时,如果不是几天的话