amazon-web-services - 设置 AWS 凭证 - Cloudera Quickstart Docker Container

标签 amazon-web-services hadoop hive cloudera cloudera-quickstart-vm

我正在尝试使用 Cloudera 的 Quickstart docker 容器来测试简单的 Hadoop/Hive 作业。我希望能够在 S3 中的数据上运行作业,但到目前为止我遇到了问题。

我已将以下属性添加到 core-site.xml、hive-site.xml、hdfs-site.xml。

  <property>
    <name>fs.s3.awsAccessKeyId</name>
    <value>XXXXXX</value>
  </property>

  <property>
    <name>fs.s3.awsSecretAccessKey</name>
    <value>XXXXXX</value>
  </property>

无论如何,在 Hive 中尝试创建指向 S3 位置的外部表时,我收到错误:

FAILED: SemanticException java.lang.IllegalArgumentException: AWS Access Key ID and Secret Access Key must be specified as the username or password (respectively) of a s3 URL, or by setting the fs.s3.awsAccessKeyId or fs.s3.awsSecretAccessKey properties (respectively).

最佳答案

我希望你现在已经解决了这个问题,但如果有人要引用此链接,它可能会有用

在所有 xml 文件中添加 Accesskey 和 secretAccesskey 之后,我们需要确保查询中给出的 s3 位置应该是“s3a://”,我们大多数人将位置设置为“s3://"

关于amazon-web-services - 设置 AWS 凭证 - Cloudera Quickstart Docker Container,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39093492/

相关文章:

java - 色调蜂蜡创建表错误

java - Hive Java UDTF错误:ArrayIndexOutofBounds:1

hadoop - Mapr 分布中的 Hive on Spark

amazon-web-services - 来自 AWS CloudFront 的外部 Next.js 图像的缓存控制策略对于 Google Lighthouse 来说效率不高

amazon-web-services - Amazon s3 与 Ec2 存储文件

hadoop - 如何使用 Apache Drill 从 AmazonS3 查询数据?

hadoop - 配置单元BITMAP索引表中BITMAPS列的使用

ssl - 使用 SSL 的 AWS ELB 显示请求超时

amazon-web-services - 无服务器框架错误 : Single API Gateway Project - RootResourceId attribute of API Gateway RestAPI <id> doesn't exist

hadoop - 将 hive IN subselect 查询与 WHERE 替换相结合