Robots.txt 阻止访问所有 https ://pages

标签 robots.txt

阻止任何机器人访问 https://页面的语法是什么?我有一个旧网站,现在没有 SSL,我想阻止访问所有 https://页面

最佳答案

我不知道它是否有效,机器人是否为不同的协议(protocol)使用/请求不同的robots.txt。但您可以为通过 HTTPS 的请求提供不同的 robots.txt

因此,当请求 http://example.com/robots.txt 时,您将传递正常的 robots.txt。当请求 https://example.com/robots.txt 时,您将提供禁止一切的 robots.txt

关于Robots.txt 阻止访问所有 https ://pages,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/788974/

相关文章:

nginx - [NGINX]无法使 proxy_pass 和 robots.txt 工作

seo - 我可以在 robots.txt 中使用 “Host” 指令吗?

html - 如何让 robots.txt 在 "?"字符之后阻止访问网站上的 URL,但索引页面本身?

Python 的 robotsparser 忽略站点地图

支持通配符的 Java robots.txt 解析器

html - 工具正在 robots.txt 中定位未知代码

visual-studio - 如何为不同的构建配置部署不同版本的文件?

java - 我无法在 Spring-MVC 中访问 Robots.txt

javascript - 无法使用 Python 抓取网页