seo - 禁用对子域的抓取

标签 seo subdomain robots.txt

我想禁用对我的子域的抓取。

例如: 我的主域是 maindomain.com
subdomain_one.com(附加域)
subdomain_two.com(附加域)

所以我想禁用对 subdomain_one.maildomain.com 的抓取。

我在 robot.txt 中使用了这个:

   User-agent: *
   Disallow: /subdomain_one/
   Disallow: /subdomain_two/

最佳答案

该文件必须名为 robots.txt,而不是 robot.txt

如果您想禁止所有机器人抓取您的子域,您必须将 robots.txt 文件放在该子域的文档根目录中,其内容如下:

User-agent: *
Disallow: /

每个主机都需要自己的 robots.txt。您不能在 robots.txt 中指定子域,只能指定 beginnings of URL paths .

因此,如果您想阻止 http://sub.example.com/ 上的所有文件,robots.txt 必须可以从 http://sub.example.com 访问/robots.txt.

doesn’t matter您的网站在服务器端的组织方式,只有哪些内容可以公开访问才重要。

关于seo - 禁用对子域的抓取,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25263808/

相关文章:

.htaccess - mod-rewrite 转发而不改变 URL

ruby-on-rails - 跨不同子域上的 Rails 应用程序共享 session

html - CSS 不适用于 http 但适用于 www

html - Google 正在用 ID 索引我的目标标签 URL

drupal-7 - 不允许 :/sites/default/files/not working for my Drupal Website

apache - 将 Noindex Follow 设置为子域 - robots.txt

seo - 使用 Javascript 更改 HTML 的顺序对 SEO 有帮助吗

SEO - 规范 url 和多语言网站

apache - 如何在 Ubuntu 上为 Apache2 配置子域?

ruby-on-rails - Rails 应用程序和 robots.txt 最佳实践