我正在关注this教程。我的代码是这样的:
package com.ipponusa;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.streaming.Duration;
import org.apache.spark.streaming.api.java.JavaStreamingContext;
public class SparkStringConsumer {
public static void main(String[] args) {
SparkConf conf = new SparkConf()
.setAppName("kafka-sandbox")
.setMaster("local[*]");
JavaSparkContext sc = new JavaSparkContext(conf);
JavaStreamingContext ssc = new JavaStreamingContext(sc, new Duration(2000));
// TODO: processing pipeline
ssc.start();
ssc.awaitTermination();
}
}
我的 Maven 依赖项是:
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming-kafka_2.10</artifactId>
<version>1.6.0</version>
</dependency>
问题是代码和导入都有错误。我不知道我需要什么依赖项,也不知道如何找出我需要什么依赖项。我是 Java 新手。
所以我的问题是,我应该如何知道我需要哪些依赖项?
注意:IntelliJ 或 Netbeans 的“查找 Maven 依赖项”功能都没有为我找到任何内容。
编辑:如果我去here我可以找到我正在寻找的类,但找不到那里的依赖项。
编辑:如果我去here我可以找到一长串依赖项,但找不到包含我需要的类的依赖项。
提前致谢!
最佳答案
我认为你也应该添加 Spark 核心
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>2.1.0</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming_2.10</artifactId>
<version>2.1.0</version>
</dependency>
关于java - 如何找到 Java 依赖项?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43812377/