当前位置: 沐风博客 >> SEO算法 >>正文 沐风博客,提供微信公众号阅读量、视频号点赞等服务,微信或者QQ联系

为什么robots文件更新了很久蜘蛛还在抓取被禁止的文件

重点导读:官方解释:在百度搜索资源平台使用robots工具进行更新,并及时关注文件生效时间,若3天后还未生效,建议提供具体问题截图和具体的URL在反馈中心反馈,以便排查问题。另外开发者自查robots.txt文件是否书写错误,robots文件往往放置在根目录下,包含一条或更多的记录,这些记录通过空行分开。
发布人:沐风 - 更新时间:2021-04-27 07:45:00 - 地址:http://www.tangmengyun.com/seo/2683.html - 浏览:4394

问题:为什么robots文件更新了很久蜘蛛还在抓取被禁止的文件?

回答:官方解释:在百度搜索资源平台使用robots工具进行更新,并及时关注文件生效时间,若3天后还未生效,建议提供具体问题截图和具体的URL在反馈中心反馈,以便排查问题。另外开发者自查robots.txt文件是否书写错误,robots文件往往放置在根目录下,包含一条或更多的记录,这些记录通过空行分开。

从百度方面的解释可以看到,理论上百度搜索对于robots文件的反应是比较快的,基本3天左右就能生效。

但要注意,这只是理论上的!就目前百度相关的工具来看,似乎很多都会出现延迟的情况。当然,不管具体什么原因,作为普通的站长,我们都不能去改变什么。能做的就是进行自我排查,在确定操作无误之后,再按照百度的要求,提供相关资料进行反馈。

还有沐风SEO建议,我们在做SEO的时候,要把重心放在站内优化上,坚持内容为王,提供优质的网站内容和用户体验。百度方面提供的这些工具,的确能够解决某些问题,但改变不了根本。

比如我们不能把网站收录寄希望于百度搜索的快速收录,虽然快速收录提供了快速蜘蛛抓取的通道,但真正影响到页面收录的还是页面的质量度。所以,我们需要把网站真正的做好,再通过这些工具进行辅助提升,这样相辅相成才是网站优化的正确方式。


为什么robots文件更新了很久蜘蛛还在抓取被禁止的文件所属标签robots 下的相关文章推荐

互联网时代,搜索引擎/微信公众号/抖音/电商平台等给我们带来了诸多机遇,如何才能更好的把握,这就需要我们掌握必要的知识和技能!沐风博客分享SEO等网络营销推广技术和资讯,帮助大家更好的在互联网发展! - ICP备案号 湘ICP备2022004497号