所以,我有一个运行 OpenSuse 和 apache 的开发服务器。此服务器上有大量项目,其中一些有在线/实时对应项目。
每个项目都有一个单独的子域。
如何将对 robots.txt 的所有请求重写为一个服务器范围内的“默认”文件?
我的目标是防止搜索机器人编制索引。
最佳答案
我相信没有比在每个VirtualHost
指令中设置一个Alias
更简单的方法了:
Alias /robots.txt /home/path/to/generic/robots.txt
不过,我很高兴接受真正的全局解决方案的纠正。
关于.htaccess - mod_rewrite 所有 robots.txt 请求到默认文件,服务器范围,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/5236308/