我发布了一个网站,由于不依赖于我的误解,我不得不在索引之前屏蔽所有页面。其中一些页面已经链接到社交网络上,因此为了避免不良的用户体验,我决定将以下代码插入“robots.txt”
User-agent: *
Disallow: *
我收到了关于网站管理员工具的“严重问题”警报,我对此有点担心。根据您的经验,(只要可能)恢复原始“robots.txt”就足够了吗?如果当前情况持续很长时间,是否会在网站上留下后果(处罚或类似的)(如果确实如此,我该如何解决)?如果这个问题听起来有点笼统,我很抱歉,但我无法找到具体的答案。提前致谢。
最佳答案
出现“严重问题”是因为 Google 无法使用您的 robots.txt 配置为您网站上的网页编制索引。如果您仍在开发网站,则拥有此 robots.txt 配置是标准过程。网站管理员工具将您的网站视为正在生产中,但听起来您仍在开发中,因此在这种情况下这是一条误报错误消息。
拥有此 robots.txt 配置不会对搜索引擎排名产生长期负面影响,但是搜索引擎访问您网站的时间越长,排名就越好。对于 Google 来说,大约 3 个月的稳定抓取将为其赢得某种可信状态。所以这实际上取决于域名以及它之前是否被谷歌索引以及索引了多长时间,但仍然不会产生长期后果,最多你还需要再等3个月才能“赢得谷歌的信任” ”再次。
大多数社交网络都会在用户分享时读取 robots.txt 文件,而另一方面,搜索引擎的索引率各不相同,需要几个小时到几周的时间才能检测到机器人的变化.txt 文件并更新索引。
希望这会有所帮助,如果您可以提供有关您的情况的更多详细信息,我也许可以提供进一步的帮助,但这至少应该回答您的问题。
关于robots.txt - 删除 robots.txt 后是否会产生后果?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23033969/