python - 如何提高 Google App Engine 上 request_logs 的吞吐量

标签 python google-app-engine logging

从 App Engine 下载日志并非易事。请求是批量的; appcfg.py 不使用普通文件 IO,而是使用临时文件(按时间倒序排列),最终将其附加到本地日志文件;追加时,需要找到“哨兵”,这使得日志轮换变得困难,因为必须留下足够的旧日志,以便 appcfg.py 记住它停止的位置。最后,Google 会在一段时间后删除旧日志(我使用的应用程序为 20 分钟)。

随着应用规模的扩大和日志生成率的增长,如何提高获取日志的速度以使 appcfg.py 不落后?

最佳答案

您可以增加日志的每个请求批量大小。在最新的SDK(1.3.1)中,查看google_appengine/google/appengine/tools/appcfg.py大约像 861 ( RequestLogLines LogsRequester 类的方法)。您可以修改“limit”参数。

我正在使用 1000,效果非常好。

关于python - 如何提高 Google App Engine 上 request_logs 的吞吐量,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/2249530/

相关文章:

python - 磁盘寻道时间测量方法

python - 您如何在 Geraldo Reports 中生成/创建表格?

google-app-engine - 预计 GAE/NDB 的响应时间是多少?

ruby-on-rails - Rails - 有条件地记录特定主机名

java - Wildfly 日志记录配置文件设置 ( logger.debug ("test") )

python - 类型错误 : ord() expected string of length 1, 但找到 int

python - 如何处理具有多行字符串参数的嵌套函数调用的重新格式化

node.js - Google App Engine,index.html 在 Express/React 应用程序中部署后缓存

google-app-engine - 使用 Google App Engine 生成带有实体键的短 URL

logging - 是否可以在运行时更改 AWS Lambda 的日志级别?