robots.txt - 使用 robots.txt 在子域上禁止或无索引

标签 robots.txt

我在不同的子域上托管了 dev.example.com 和 www.example.com。我希望爬虫删除 dev 的所有记录子域,但将它们保留在 www .我使用 git 来存储两者的代码,所以理想情况下我希望两个站点都使用相同的 robots.txt 文件。

是否可以使用一个 robots.txt 文件并让它从 dev 中排除爬虫程序?子域?

最佳答案

您可以使用 Apache 重写逻辑来提供不同的 robots.txt在开发领域:

<IfModule mod_rewrite.c>
    RewriteEngine on
    RewriteCond %{HTTP_HOST} ^dev\.qrcodecity\.com$
    RewriteRule ^robots\.txt$ robots-dev.txt
</IfModule>

然后创建一个单独的robots-dev.txt :
User-agent: *
Disallow: /

关于robots.txt - 使用 robots.txt 在子域上禁止或无索引,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4904642/

相关文章:

c# - 如何从 robots.txt 文件中读取站点地图 url 文本

seo - 我已经禁止一切 10 天

wordpress - 谷歌索引 : robots. txt 停止 wp 上传索引

web - 蜘蛛是否只抓取站点地图中的网址

seo - 网站为什么使用不同类型的机器人 txt?

javascript - Robots.txt 拒绝,对于 #!网址

html - 灯塔假旗

SEO - robots.txt 不允许文件夹

version-control - 版本控制中的 robots.txt

seo - 如何自定义 DNN robots.txt 以允许搜索引擎抓取模块特定站点地图?