amazon-web-services - 如何更新/替换 aws cloudfront 中的 robots.txt 文件

标签 amazon-web-services web-crawler amazon-cloudfront google-search robots.txt

我有一个网站 www.example.com。因此,当我访问像 www.example.com/robots.txt 这样的 robots.txt 文件时,它会显示由 SEO 团队创建/准备的多行文本。

所以有一个指向 CloudFront 的子域 assets.example.com。当我通过像 https://assets.example.com/robtos.txt 这样的 CloudFront URL 访问 robots.txt 文件时,它会在浏览器中显示以下结果。

User-agent: *
Disallow: / 

所以有一个更新 AWS CloudFront 中的 robots.txt 文件内容的请求 https://assets.example.com/robtos.txt & https://www. example.com/robtos.txt 应该显示相同的文本。我没有找到 robots.txt 放在云端的任何地方。

是否可以在云端更新 robots.txt?这里有CloudFront的作用吗?或者我们需要更新 assets.example.com 的 robots.txt 与为 example.com 配置的一样?

请帮帮我。我在这里很困惑。

最佳答案

您可以指向 CloudFront 分配 (assets.example.com),然后使用域名 www.example.com 添加新来源,然后添加具有路径模式的新缓存行为 robots.txt 并将原点添加到其中。

此设置接受对 assets.example.com/robots.txt 的请求并将其转发到 www.example.com/robots.txt。有了这个,您可以删除重复项。

关于amazon-web-services - 如何更新/替换 aws cloudfront 中的 robots.txt 文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63578181/

相关文章:

php - 什么语言适合写网络爬虫?

java - 抓取具有特定前缀的网址

amazon-web-services - 获取托管区域以进行Cloudfront分发

curl - 为什么来自同一台计算机的不同客户端的两个请求缓存未命中云端?

javascript - 我在使用 Node js 对 dynamoDB 中的表执行更新操作时遇到 ConditionalCheckFailedException

amazon-web-services - 在 AWS Step Functions 中传递变量

python - 如何从本地 Docker 容器中从 S3 中提取数据

amazon-web-services - 如何在 AWS Opsworks 上设置 EC2 标签

Ruby Mechanize 更改不在表单中的 <select> 值

amazon-cloudfront - 亚马逊云端是否可以设置为在 cloudfront.net 上拥有多个域