nginx - 如何配置Nginx重定向到robots.txt和sitemap.xml的网址

标签 nginx robots.txt

我正在将nginx 0.6.32作为couchdb的代理前端运行。我的robots.txt在数据库中,可以通过http://www.example.com/prod/_design/mydesign/robots.txt到达。我也有在类似网址上动态生成的sitemap.xml。

我尝试了以下配置:

server {
  listen 80;
  server_name example.com;
  location / {
  if ($request_method = DELETE) {
    return 444;
  }
  if ($request_uri ~* "^/robots.txt") {
    rewrite ^/robots.txt http://www.example.com/prod/_design/mydesign/robots.txt permanent;
  }

  proxy-pass http://localhost:5984;
  proxy_redirect off;
  proxy_set_header Host $host;
  proxy_set_header X-Real-IP $remote_addr;
  proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}

这似乎可以作为重定向,但是有更简单的方法吗?

最佳答案

或者您可以将其简单地放在自己的位置-

location /robots.txt {
    alias /Directory-containing-robots-file/robots.txt;
} 

关于nginx - 如何配置Nginx重定向到robots.txt和sitemap.xml的网址,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/1090823/

相关文章:

php - 如何在 Nginx 上运行开放日志系统 (OJS)

seo - 如何使用 robots.txt 阻止机器人抓取分页?

robots.txt - 文件夹名称中的空格

wordpress - 我应该在 Google 网站站长工具中删除旧的 http 属性吗?

docker - Gitlab中的Nginx日志非常大

ruby-on-rails - 在远程 SSL 代理后面使用 Rails config.force_ssl 进行无限重定向

redirect - nginx重写文件夹的重定向

security - gzip 一切的危险是什么?

.htaccess - 防止抓取工具(尤其是 Google)抓取我域中的某个文件夹?

seo - Sitemap/robots.txt 配置冲突