amazon-dynamodb - DynamoDB AutoScaling 仍然受到限制

标签 amazon-dynamodb throughput

我有一个使用 DynamoDB 的应用程序,我注意到他们刚刚实现了很棒的自动缩放。我喜欢这个概念,我的应用程序的时机非常完美。但是,我仍然遇到一些问题,我想知道我是否无法调整设置以将其删除。

我的应用程序的使用量明显激增,因此我认为这是一个理想的使用方法,但是在启用自动缩放后,我仍然会遇到一些限制。这是我过去 12 小时的阅读图表:
autoscaling

正如您所看到的,当它达到峰值时,使用率设置得很低,所以它会限制一两分钟,直到更新开始,然后才能工作。我想这没关系,而且比不缩放要好,但我希望它根本不节流......

有什么方法可以告诉 DynamoDB 永远不要节流,除非它超过 100(或 200 或我设置的任何上限)?只是如果它出现激增将吞吐量提高 15 分钟或其他什么直到激增结束?

最佳答案

自动缩放使用 CloudWatch。您可以通过转到 CloudWatch 仪表板并查找在说明中包含您的表名称和“请勿编辑或删除”的警报来查看这些警报。

我为什么要告诉你这些?

嗯,CloudWatch 有一些最小的周期粒度。目前是1分钟。这意味着它将至少等待 1 分钟,然后再向其监听器触发任何事件。因此,从负载开始到容量增加至少需要一分钟。实际上它会更多,因为增加容量也需要时间。底线:如果您有非常大的峰值,则某些请求可能会受到限制,因为自动缩放尚未生效且 bursting可以用尽。

简单但成本高昂的解决方案是增加初始容量。

如果您提前知道即将到来的高峰(例如,您有一些定期运行的工作,或者在某些时间客户高峰),您可以使用 API以编程方式修改自动缩放。

关于amazon-dynamodb - DynamoDB AutoScaling 仍然受到限制,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44661857/

相关文章:

amazon-web-services - 用于用户存储的 S3 或 DynamoDb?

python - DynamoDB 哈希键 int 与字符串

amazon-web-services - 如何修复错误 "DynamoDB returns GSI range key not specified errors"?

c - 使用周期计数计算吞吐量

amazon-web-services - AWS Dynamodb 对项目大小和列表项目计数的限制听起来很矛盾

amazon-web-services - 使用 AWS Athena 分析 DynamoDB 数据

kafka-consumer-api - 当我们的 Kafka 分区存在滞后时,Akka Kafka Consumer 处理率急剧下降

RestSharp:底层连接已关闭:服务器关闭了预期保持事件状态的连接

java - 不同大小数组的吞吐量不同