hadoop - 在 Spark 中转储 hadoop 配置

标签 hadoop apache-spark

我使用sc.hadoopConfiguration.set来设置配置。 如何转储这些配置?在控制台上打印它们或将它们转储到文件

最佳答案

您可以将 hadoop 配置转储到 xml 文件(我假设您使用的是 Scala)

    val out = new FileOutputStream("conf.xml")
    sc.hadoopConfiguration.writeXml(out)

关于hadoop - 在 Spark 中转储 hadoop 配置,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41160714/

相关文章:

performance - Hive:是否有更好的方法对列进行百分位排名?

hadoop - 如何使用 UPDATE 使用 CQL 插入到只有主键的表中?

scala - 增加任务大小 spark

scala - 什么是 Spark 中的 DecisionTree.trainClassifier 参数

exception - 格式化 HDFS 时出现 UnknownHostException

hadoop - 在特定队列上运行 sqoop 作业

apache-spark - 在 Google Colab 中使用图形框架

hadoop - Apache Spark 在 YARN 中部署时如何处理系统故障?

java - 从本地复制文件

sql - 如何聚合 PySpark(或最终 SQL)中不同列的值?