我有一个经常检索远程网站(通过 cURL)的应用程序,我想知道关于缓存这些 HTTP 请求我有哪些选择。例如:
application -->curl-->www.example.com
问题是cURL在一个小时内可以被调用数百次,每次都需要发起数百次HTTP请求,基本上是一样的。那么,我可以怎样加快速度呢?我正在试验 Traffic server但对结果不是很满意。我想 DNS 缓存是必须的,但我还能在这里做什么?该应用程序运行的系统是 CentOS。
最佳答案
我不知道为什么 Traffic Server 没有提供令人满意的结果,但一般来说,使用缓存的转发代理设置是做到这一点的方法。您当然会确保来自 www.example.com 的响应是可缓存的,无论是通过缓存代理服务器上的配置,还是直接在源 (example.com) 上。这可能是代理缓存世界最大的困惑,什么可缓存什么不缓存的预期不符合要求。
关于php - 缓存远程访问的网站,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30853068/