seo - 使用 robots.txt 限制动态 url 会提高我的 SEO 排名吗?

标签 seo google-search-console

我的网站有大约 200 篇有用的文章。由于该网站具有包含大量参数的内部搜索功能,因此搜索引擎最终会使用附加参数(例如标签、搜索短语、版本、日期等)的所有可能排列来抓取 url。这些页面中的大多数只是搜索结果列表与原始文章的一些片段。

根据 Google 的网站管理员工具,Google 仅抓取了 xml 站点地图中 200 个条目中的大约 150 个。看起来好像谷歌在上线多年后还没有看到所有的内容。

我计划在 robots.txt 中添加几行“Disallow:”,这样搜索引擎就不会再抓取那些动态 url。此外,我计划在网站管理员工具的“网站配置”-->“url 参数”部分中禁用一些 url 参数。

这会提高还是损害我当前的 SEO 排名?看起来我的网站好像丢失了数千个内容页面。

最佳答案

这正是canonical URLs是给。如果一页(例如文章)可以通过多个 URL 访问,那么您需要使用规范 URL 指定主要 URL。这可以防止出现重复内容问题,并告知 Google 在其搜索结果中显示哪个 URL。

所以不要屏蔽您的任何文章,您也不需要输入任何参数。只需使用规范 URL 就可以了。

关于seo - 使用 robots.txt 限制动态 url 会提高我的 SEO 排名吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/7504178/

相关文章:

SEO、Google 网站站长工具 - 如何为站点地图中的错误 URL 生成 404 抓取错误报告?

seo - Google 没有列出指向我网站的链接

apache - 用于 SEO 的 Mod_rewrite URL

reactjs - 在 React SPA 中打开图元标记和 SEO

html - 不同页面中的相同 H1 标签?

http - 谷歌说 : Sort parameters in URL problematic

seo - 如何通知 Google 同一域中的页面 URL 修改?

seo - 在 robots.txt 中只允许抓取共享主机上的子域而不是子目录?

php - 如何使用自定义变量更改 url 变量

indexing - 为什么谷歌在限制后停止抓取