amazon-web-services - AWS 问题 - 如何使用 Python 在 Fargate 任务中获取 Cloudwatch 事件数据

标签 amazon-web-services amazon-s3 boto3 aws-fargate amazon-cloudwatch-events

我是 Cloudwatch 事件和 Fargate 的新手。我想在文件上传到特定 S3 存储桶时触发 Fargate 任务 (Python) 运行。每当我上传文件时,我都可以让任务运行,并且可以在事件日志中看到名称;但是我想不出一种简单的方法来读取 Fargate 中的事件数据。过去几天我一直在研究这个,除了读取事件日志或使用 lambda 调用任务并将事件数据放入消息队列之外,还没有找到解决方案。
有没有一种简单的方法可以使用 boto3 在 Fargate 中获取事件数据?很可能我没有在正确的地方寻找或提出正确的问题。
谢谢

最佳答案

您可以配置的最简单的选项之一是同一 s3 图像上传事件的两个目标。

  • 将同一事件推送到 SQS
  • 同时启动 Fargate 任务

  • 当 Fargate 启动时从 SQS 读取消息事件(中间没有 Lambda),同样的任务定义也适用于正常用例,确保在从 sqs 读取消息后退出进程。
    所以在这种情况下,每当 Fargate 任务启动时,它都会从 SQS 读取消息。
    enter image description here

    关于amazon-web-services - AWS 问题 - 如何使用 Python 在 Fargate 任务中获取 Cloudwatch 事件数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62743504/

    相关文章:

    python - 使用 boto3 根据 AssumeRolePolicyDocument 中的操作列出角色名称

    amazon-web-services - AWS 将 .net、.co.uk 和 .org 重定向到 .com

    node.js - Aws Lambda 响应错误

    ios - 使用 Amazon Educate 入门账户将图像上传到 S3

    amazon-s3 - 如何从 Redshift 表中仅卸载 1000 行

    amazon-s3 - 尝试访问重新加载或刷新或在角度5的新选项卡中访问一个时收到AccessDenied

    python - 使用 AWS lambda 函数使用 boto3 python 将 S3 文件从 zip 转换为 gzip

    node.js - 从 AWS Lambda Node.JS 流式传输并压缩到 S3

    ubuntu - 在启动时通过 AWS CLI 将弹性 IP 分配给 EC2

    python - 获取文件夹中的最新文件并上传到 s3?