amazon-web-services - Hadoop s3 配置文件丢失

标签 amazon-web-services scala hadoop amazon-s3

我正在使用 Hadoop 库在 S3 中上传文件。由于缺少一些指标配置文件,我得到了这个异常

MetricsConfig - Could not locate file hadoop-metrics2-s3a-file-system.properties org.apache.commons.configuration2.ex.ConfigurationException: 

Could not locate: org.apache.commons.configuration2.io.FileLocator@77f46cee[fileName=hadoop-metrics2-s3a-file-system.properties,basePath=<null>,sourceURL=,encoding=<null>,fileSystem=<null>,locationStrategy=<null>]
我目前的配置是
configuration.set("fs.s3a.access.key", "accessKey")
configuration.set("fs.s3a.secret.key", "secretKey")
在哪里添加这个配置文件?向该配置文件添加什么?

最佳答案

别担心,这只是一个恼人的警告。仅当您在长期存在的应用程序中运行 s3a 或 abfs 连接器时才相关,在该应用程序中收集指标并将其提供给某些管理工具。
在 spark conf 目录的 log4j.properties 文件中将日志级别设置为警告

log4j.logger.org.apache.hadoop.metrics2=WARN

关于amazon-web-services - Hadoop s3 配置文件丢失,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/64400948/

相关文章:

json - 将 Parquet 从 AWS Kinesis firehose 写入 AWS S3

amazon-web-services - AWS-SAM:如何重新使用 Route53 域而不是重新创建它?

amazon-web-services - 如何查看Elasticsearch AWS集群设置

regex - 如何在scala中提取匹配的字符串?

scala - 处理 Spark Scala API 交叉连接的最佳方法,导致左右数据帧的列名称相同

scala - 如果scala提倡不变性,为什么它采用具有可变性的actor模型?

hadoop - 为什么 Hadoop HDFS -rmr 命令超快

map - 打印独特或独特的值(value)

hadoop - 具有 Hadoop 高可用性的 Hive

amazon-web-services - 如何将非常大的文件上传到 S3?