我正在使用以下博客进行配置以从 apache spark 访问 Cassandra。
"http://www.datastax.com/dev/blog/accessing-cassandra-from-spark-in-java "
"https://gist.github.com/jacek-lewandowski/278bfc936ca990bee35a#file-javademo-java-L177 "
但是,我无法导入 CassandraJavaUtil 类依赖项,并且我的 Eclipse 显示错误“无法解析导入”。
import static com.datastax.spark.connector.CassandraJavaUtil.*;
请帮助我解决此错误。
非常感谢。
最佳答案
我还遵循了您链接的第一个文档中的示例。您会注意到,在“先决条件”部分,第 2 步要求您将示例创建为 Maven 项目。第 3 步列出了您需要添加到项目中的四个依赖项。其中两个依赖项特定于 Spark 连接器:
基本上,
pom.xml
的“依赖项”部分对于我的 Spark 项目,如下所示: <dependencies>
<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector_2.10</artifactId>
<version>1.1.0-alpha2</version>
</dependency>
<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector-java_2.10</artifactId>
<version>1.1.0-alpha2</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.1.0</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming_2.10</artifactId>
<version>1.1.0</version>
</dependency>
</dependencies>
仔细检查您的
pom.xml
具有这些依赖项,然后调用 Maven 以在本地关闭 Spark 连接器库。这对我有用:cd workspace/sparkTest2
mvn package
关于cassandra - java : Unable to import CassandraJavaUtil中从spark访问cassandra时出错,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28020030/