如何向在集群模式下运行的 Spark 应用程序提供自定义类路径(即驱动程序提交,执行程序执行)
spark.driver.userClassPathFirst
选项会导致更多类路径冲突。
--confspark.executor.extraClassPath=foo/bar.jar --confspark.driver.extraClassPath=foo/bar.jar
我在使用 spark-submit
时使用了它,但我没有看到它生效。
foo/bar.jar
是否必须存在于执行程序主机上,或者它也会使其可用?
最佳答案
如果您想通过作业本身将 jar 复制到所有执行程序,您可以使用 --jars。否则你需要复制 jar 。
谢谢 拉维
关于java - Apache Spark 提供自定义类路径,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49662687/