昨天我在我的一个域中安装了 SSL 证书,更新了链接和站点地图等。
今天我去 Google Search Console 重新提交站点地图,令我恐惧的是它说站点地图中的 URL 中 5,310 个中有 5,257 个 被 robots.txt
。
我已将新的 https
属性添加到 Google Search Console,并且在向其提交站点地图时遇到与我在旧的 http
属性中相同的错误.
这是我的 robots.txt
,位于 https://adrdangerousgoods.com/robots.txt :
User-agent: *
Sitemap: https://adrdangerousgoods.com/sitemap.xml
Sitemap: http://adrfarligtgods.se/sitemap-swe.xml
Allow: *
我的域名是 https://adrdangerousgoods.com站点地图可在 https://adrdangerousgoods.com/sitemap.xml 获得。 .我使用 Google Search Console 中的工具测试了 robots.txt
,它没有阻止任何东西(显然,因为它被配置为允许完全访问)。
我正在使用 .htaccess
对所有到 http://adrdangerousgoods.com
到 https 的请求执行
。 301 重定向
://adrdangerousgoods.com
知道这里发生了什么吗?不确定我是否应该尝试等待它结束,看看 Google 是否需要在某处刷新某些内容,或者我的站点地图/robots.txt/其他内容是否确实有问题。
最佳答案
请替换如下代码试试:
用户代理:*
允许:/
站点地图:https://adrdangerousgoods.com/sitemap.xml
网站 map :http://adrfarligtgods.se/sitemap-swe.xml
让我知道它是否有效。
关于.htaccess - 迁移到 HTTPS 后,Google Search Console 说我的 robots.txt 阻止了站点地图中的所有 URL,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43111030/