java - Apache Spark 提供自定义类路径

标签 java apache-spark classpath

如何向在集群模式下运行的 Spark 应用程序提供自定义类路径(即驱动程序提交,执行程序执行)

spark.driver.userClassPathFirst 选项会导致更多类路径冲突。

--confspark.executor.extraClassPath=foo/bar.jar --confspark.driver.extraClassPath=foo/bar.jar

我在使用 spark-submit 时使用了它,但我没有看到它生效。

foo/bar.jar 是否必须存在于执行程序主机上,或者它也会使其可用?

最佳答案

如果您想通过作业本身将 jar 复制到所有执行程序,您可以使用 --jars。否则你需要复制 jar 。

谢谢 拉维

关于java - Apache Spark 提供自定义类路径,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49662687/

相关文章:

java - 在 Apache Spark 上为每个 worker 创建一个单例

scala - 如何在 Scala Spark 中将字符串列附加到数组字符串列而不使用 UDF?

java - 将 Java GUI 序列化为 XML

java - 在文本中搜索给定单词(或多个单词)的最佳方法是什么

java - 保存然后更新 Spring Data 中的实体

apache-spark - 当下一个 RDD 物化时,前一个 RDD 会发生什么?

java - 使用 ProGuard 进行文件混淆

javax JavaCompiler 类路径问题

java - Izpack:创建自定义面板

java - 如何在 Kotlin Gradle 脚本中导入 java 模块