我想将 Eclipse 用于 Apache Spark 项目,但构建依赖项似乎不起作用。我不断得到
“生命周期配置未涵盖插件执行:org.apache.maven.plugins:maven-plugin-plugin:3.2:descriptor(执行:default-descriptor,阶段:generate-resources)”
按照 Apache Spark 站点上的说明进行操作,https://spark.apache.org/docs/latest/programming-guide.html 我正在运行 CDH5 集群。使用maven。这是我生成的 pom.xml
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven- 4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.1.0</version>
<packaging>jar</packaging>
<name>spark-core_2.10</name>
<url>http://maven.apache.org</url>
<properties>
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
</properties>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>3.8.1</version>
<scope>test</scope>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
</dependency>
<repositories>
<repository>
<id>Cloudera repository</id>
<url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
</repository>
</repositories>
<dependencyManagement>
<dependencies>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.1.0</version>
</dependency>
</dependencies>
我是一个新的 Maven/POM 用户。我该如何解决这个问题并停止在我的 java 代码中出现错误?
最佳答案
该错误消息似乎与 m2e 插件有关。看看https://www.eclipse.org/m2e/documentation/m2e-execution-not-covered.html. 然而,您公开的pom很奇怪,groupId和artifactId应该与您的项目的路径和名称相关,而不是与您尝试使用的依赖项相关(在本例中为spark-core_2.10)。
关于java - 在 Eclipse 上构建 Apache Spark 的依赖项,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26535530/