差不多就是这个问题。有没有比标准 sitemap.xml 更有效的方法来[添加/强制重新抓取/删除],即管理您网站在谷歌中的索引条目?
记得几年前看到一个不知名博主的文章,说他在自己的网站上写新闻的时候,这个新闻的url入口会立刻出现在google的搜索结果中。我认为他提到了一些特别的事情。我不记得具体是什么......谷歌自己提供的一些自动重新抓取系统?但是,我不确定。所以我问,你认为我是在自欺欺人吗,除了 sitemap.xml 之外没有其他方法来管理索引内容?我只需要确定这一点。
谢谢。
最佳答案
我认为您不会找到您正在寻找的神奇“ Elixir ”答案,但这里有一些额外的信息和提示可能会有所帮助:
- 抓取深度和抓取速度直接受 PageRank 影响(它确实影响的少数因素之一)。因此,增加您网站的主页和内部页面的反向链接数量和质量会对您有所帮助。
- QDF - 这个 Google 算法因素“Query Deserves Freshness”确实具有实际影响,并且是 Google Caffeine 基础设施项目背后的核心原因之一,可以更快地找到新鲜内容。这是像 SE 这样的博客和网站表现出色的主要原因之一 - 因为内容“新鲜”并且与查询匹配。
- XML 站点地图确实有助于建立索引,但它们不会带来更好的排名。使用它们来协助搜索机器人找到深入您的架构的内容。
- Ping(尤其是通过博客)监视站点更改的服务(如 ping-o-matic)确实有助于推送新内容的通知 - 这还可以确保搜索引擎立即意识到这一点。
- Crawl Budget - 注意不要将搜索引擎的时间浪费在您网站上未更改或不值得在索引中占有一席之地的部分 - 使用 robots.txt 和机器人元标记可以将搜索机器人聚集到您网站的不同部分(谨慎使用,以免删除高值(value)内容)。
其中许多主题都在网上进行了介绍,但还有其他内在的内容,如导航结构、内部链接、站点架构等,它们的贡献与任何“技巧”或“设备”一样多。
关于seo - 有没有比站点地图更有效的方法来添加/强制重新抓取/删除您网站在谷歌中的索引条目?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4773310/