hadoop - AWS 访问 key ID 在 hadoop fs -cp 命令上失败

标签 hadoop amazon-web-services

我试图运行 hadoop fs -cp 命令但收到以下错误消息:

-cp:AWS 访问 key ID 和 secret 访问 key 必须指定为 s3 URL 的用户名或密码(分别),或者通过设置 fs.s3.awsAccessKeyId 或 fs.s3.awsSecretAccessKey 属性(分别)

我是 hadoop 和 s3 的新手,所以任何人都可以就我应该做什么提供建议吗?

谢谢!

最佳答案

refer .

  1. cd ${HADOOP_HOME}/conf/hadoop-site.xml 并添加/更新

    <property>
    <name>fs.s3.awsAccessKeyId</name>
    <value>Your AWS ACCESS KEY</value>
    </property>
    
    <property>
    <name>fs.s3.awsSecretAccessKey</name>
    <value>Your AWS Secret Access Key</value>
    </property>
    

关于hadoop - AWS 访问 key ID 在 hadoop fs -cp 命令上失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22232005/

相关文章:

java - MapReduce 计算制表符分隔输入值的总和

json - hive 中的原始json字段类型

angular - 使用 HTTP 从 Angular 应用程序中调用 AWS Lambda 函数

amazon-web-services - 需要帮助在 aws ec2 上安装 php 7.2 yum 软件包

java - 如何使用AWS STS为s3中的文件的特定资源创建只读和只写 token

configuration - Hadoop:从 HDFS 映射/归约

hadoop - 控制 MultipleOutputFormat 文件子路径

amazon-web-services - AWS队列的限制

node.js - 如何从 AWS SAM 本地 Docker 容器访问另一个 Docker 容器(运行 Node Express 服务器)?

hadoop - 当 reducer 的输出 VALUE 为 null 时,如何使用 combiner?