amazon-web-services - 在pyspark(2.2.0)中将CSV文件写入AWS时如何分配访问控制列表(ACL)?

标签 amazon-web-services csv amazon-s3 pyspark acl

我知道我可以通过

将我的 Spark 数据帧作为 CSV 文件输出到 AWS S3
df.repartition(1).write.csv('s3://my-bucket-name/df_name')

我的问题是,当使用 pyspark 将此文件写入 S3 时,是否有一种简单的方法可以将此文件的访问控制列表 (ACL) 设置为 'bucket-owner-full-control'

最佳答案

构建 Spark session 后,可以通过 Hadoop 配置设置访问控制列表 (ACL)。

from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('YourAppName').getOrCreate()

设置ACL如下:

spark.sparkContext.hadoopConfiguration().set('fs.s3.canned.acl', 'BucketOwnerFullControl')

引用:s3 documentation

关于amazon-web-services - 在pyspark(2.2.0)中将CSV文件写入AWS时如何分配访问控制列表(ACL)?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52673924/

相关文章:

php - 应用程序/控制台 Assets :install to S3 using stream wrapper errors

python - 将文件从存储桶移动到另一个存储桶/文件夹

android - AWS Cognito 与 Android APP 中 IAM 角色的安全问题

php - 如何在 PHP 中使用亚马逊的 API 来搜索书籍?

amazon-web-services - Terraform 相当于 CloudFormation 中的 Custom::LoadLambda

mysql - 将一些元组插入到 web2py 中的表中

ruby-on-rails - 从 Rails 导出 CSV 数据

python - 如何从 boto 调用返回 XML?

python - 类型错误 : not enough arguments for format string while inserting into mysql database

php - 确保 S3 中的随 secret 钥名称,同时由用户维护原始文件名