scala - 更改 Spark 的 Hadoop 版本

标签 scala apache-spark hadoop

如何在不提交 jar 和定义特定 Hadoop 二进制文件的情况下为 Spark 应用程序设置 Hadoop 版本?这有可能吗? 我只是不太确定在提交 Spark 应用程序时如何更改 Hadoop 版本。

这样的东西不起作用:

  val sparkSession = SparkSession
    .builder
    .master("local[*]")
    .appName("SparkJobHDFSApp")
    .getOrCreate()
  sparkSession.sparkContext.hadoopConfiguration.set("hadoop.common.configuration.version", "2.7.4")

最佳答案

这不可能。 Spark Master 和 Workers 在类路径上都有自己的 Hadoop JAR,您自己的应用程序必须与之兼容

关于scala - 更改 Spark 的 Hadoop 版本,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55868407/

相关文章:

scala - 使用 Scalaz 7 zipWithIndex/group enumeratees 避免内存泄漏

scala - 当数据尚未加载时不可能获得工件。 IvyNode = org.scala-lang#scala-library;2.10.3

ScalaCheck 无法将 bool 值转换为 Prop 实例

apache-spark - Spark 任务在独立集群上随机阻塞

hadoop - Hadoop访问控制异常:权限

arrays - 将Reducer方法的Iterator <Pojo>对象存储到数组

scala - Spark "CodeGenerator: failed to compile"与 Dataset.groupByKey

apache-spark - Spark 中 RowMatrix 的矩阵转置

scala - 如何对 apache spark scala 中的多列数据进行排序?

hadoop - 如何将Hadoop与Mahout集成?