amazon-web-services - Hadoop配置属性

标签 amazon-web-services hadoop apache-spark properties

在我的 Spark 代码中,我必须在 HadoopConfiguration 中设置 ACCESS_KEY 和 SECRET_KEY 才能访问 AWS-S3。在互联网上,我找到了多种设置这些属性的方法。

例如

样式#1

sc.hadoopConfiguration.set("fs.s3n.access.key", AWS_ACCESS_KEY)
sc.hadoopConfiguration.set("fs.s3n.secret.key", AWS_SECRET_KEY)

样式#2

sc.hadoopConfiguration.set("fs.s3n.awsAccessKeyId", AWS_ACCESS_KEY)
sc.hadoopConfiguration.set("fs.s3n.awsSecretAccessKey", AWS_SECRET_KEY)

在上述语法中,样式 #1 (fs.s3n.access.key) 有效,而样式 #2 (fs.s3n.awsAccessKeyId ) 工作正常。 我想知道样式 #1 是否特定于任何 hadoop 版本,或者它是否在 hadoop 配置中不受支持?

我在哪里可以找到与 spark、aws、hive、s3 等相关的所有可能的 HadoopConfiguration 属性?

最佳答案

access.keysecret.key 用于s3a 连接器。 AFAIR,s3n 方案始终使用 awsAccessKeyId/awsSecretAccessKey 样式。

有关配置引用,请转到 official hadoop documentationsource code ,这是验证配置参数名称的最佳方式。

关于amazon-web-services - Hadoop配置属性,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46115199/

相关文章:

ssl - 在aws负载均衡器中sshing并将其配置为子域路由?

python - 使用 Zappa 配置 AWS Lambda 函数,出现未知错误

amazon-web-services - 使用 s3 作为数据湖的 AWS 中的 ETL 管道如何处理增量更新

hadoop - 更改数据节点目录参数后,数据节点未启动。 DiskErrorException

hadoop 并行处理示例或文档

java - 线程 “main”中的ExException java.lang.IllegalArgumentException:/home不能是目录

scala - 如何将 RDD 中的每个元素与 RDD 中的每个其他元素进行比较?

node.js - AWS无服务器+云组建: Error on single function deploy - Windows 10 Env

python - Pydoop 卡在 HDFS 文件的 readline 上

apache-spark - 在独立模式下在主节点上启动多个工作程序