java - 在dse4.6中运行spark程序

标签 java maven apache-spark datastax-enterprise

我写了一个Java Spark程序,想在dse4.6下使用命令dse Spark-submit运行它。

我知道我必须在 Spark 分析模式下启动 dse。但是据我所知,spark 与 dse 4.6 集成,这是否意味着当我必须从我的 java 程序创建一个 jar 文件才能在 dse4 下运行它时.6 Spark 分析模式,然后我必须从程序中删除 Spark Core jar,然后为我的应用程序创建 jar,然后在 dse 中运行它。

虽然这个问题可能听起来很愚蠢,但我仍然想知道,如果 Spark 与 DSE 集成,那么我仍然应该在我的 pom.xml 中包含 Spark Core 作为 Maven 依赖项,或者我应该总是在程序中删除我的 Spark-Core jar 之前制作 jar ?

最佳答案

这是一个好问题。感谢您的提问!

简短的答案是:

To use the helper classes included in dse.jar in your application

我们最近更新了 DataStax docs包含如何针对 DSE 构建自定义 Spark 作业的更好示例。您还可以查看 Ryah Svhila 编写的程序,本文档基于该程序。在他的github上 repo 协议(protocol)。

关于java - 在dse4.6中运行spark程序,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29707005/

相关文章:

hadoop - 多少个 Spark JavaRDD 适合处理数千个文件?

java - Spring Pageable 不翻译@Column 名称

java - 当从jquery加载方法加载下拉列表时,如何从数据库中预选择下拉值

Spring Boot 内嵌Tomcat 启动失败

scala - 并行处理多个文件作为独立的 RDD

apache-spark - HIVE_CANNOT_OPEN_SPLIT : Column <column_name> type null not supported

java - 声明式 OSGi 服务

java - 长籽=11L*13*17*19*23+1是什么意思;在上面的代码中?

java - Maven 并行构建的有序输出

java - 如何在部署 OSGI 包时修复缺失的需求