scala - 如何从 pyspark 设置 hadoop 配置值

标签 scala apache-spark pyspark

Scala 版本的 SparkContext 具有以下属性

sc.hadoopConfiguration

我已成功使用它来设置 Hadoop 属性(在 Scala 中)

例如

sc.hadoopConfiguration.set("my.mapreduce.setting","someVal")

但是 SparkContext 的 python 版本缺少该访问器。有没有办法将 Hadoop 配置值设置到 PySpark 上下文使用的 Hadoop 配置中?

最佳答案

sc._jsc.hadoopConfiguration().set('my.mapreduce.setting', 'someVal')

应该可以

关于scala - 如何从 pyspark 设置 hadoop 配置值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28844631/

相关文章:

scala - 这怎么是 "type mismatch"?

scala - 在 Databricks 上使用 Scala Spark 加载 Z 压缩文件

apache-spark - Spark : daily read from Cassandra and save to parquets, 如何只读取新行?

apache-spark - EMR 无服务器上的 Spark-cassandra-connector (PySpark)

scala - 如何访问和改变scala中的私有(private)字段?

scala - 柯里化(Currying)和多参数列表有什么区别?

apache-spark - 在 Apache Hudi 表中写入 Spark DataFrame

apache-spark - spark sql中的有状态udfs,或者如何在spark sql中获得mapPartitions的性能优势?

apache-spark - Spark 错误地将整数转换为 `struct<int:int,long:bigint>`

scala - Scala 映射函数签名的解释?