php - 缓存远程访问的网站

标签 php caching curl centos

我有一个经常检索远程网站(通过 cURL)的应用程序,我想知道关于缓存这些 HTTP 请求我有哪些选择。例如:

application -->curl-->www.example.com

问题是cURL在一个小时内可以被调用数百次,每次都需要发起数百次HTTP请求,基本上是一样的。那么,我可以怎样加快速度呢?我正在试验 Traffic server但对结果不是很满意。我想 DNS 缓存是必须的,但我还能在这里做什么?该应用程序运行的系统是 CentOS。

最佳答案

我不知道为什么 Traffic Server 没有提供令人满意的结果,但一般来说,使用缓存的转发代理设置是做到这一点的方法。您当然会确保来自 www.example.com 的响应是可缓存的,无论是通过缓存代理服务器上的配置,还是直接在源 (example.com) 上。这可能是代理缓存世界最大的困惑,什么可缓存什么不缓存的预期不符合要求。

关于php - 缓存远程访问的网站,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30853068/

相关文章:

php - 如何将变量传递给中间件函数? [SLIM框架]

http - 我可以读取 http 响应直到某个子字符串吗?

php - 如何使用 DATA ATTRIBUTE 将背景图像添加到带有 HTML 和 CSS 的 anchor 标记

php - MYSQL 中的 ORDER BY 条件使用函数返回

node.js - 与 npm run 配合良好的静态构建的自动缓存清除?

html - css include url末尾的问号有什么作用?

angularjs - 带有 angularjs 的 Paypal API

php - 分析 API 返回 : Bad request - invalid_grant

javascript - 每隔给定时间 self 刷新数据库

caching - Symfony 1.4 功能测试不显示新数据