为什么robots禁止抓取了但搜索引擎还会抓取
重点导读:严格来说robots限制蜘蛛抓取,搜索引擎也是会遵循这个规则的,现在百度搜索引擎对于robots的态度是,依然会抓取,但是不会保留百度快照。其他搜索引擎基本也是同样的。
发布人:沐风 - 更新时间:2021-12-01 08:13:38 - 地址:http://www.tangmengyun.com/seo/2144.html - 浏览:5268
问题:为什么robots禁止抓取了但搜索引擎还会抓取?
回答:严格来说robots限制蜘蛛抓取,搜索引擎也是会遵循这个规则的,现在百度搜索引擎对于robots的态度是,依然会抓取,但是不会保留百度快照。其他搜索引擎基本也是同样的。
在百度百科里面有这么一条:robots协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。
设置robots禁止抓取主要是基于两个原因:第一个是新站调试期间,不想让搜索引擎抓取;第二个就是网站下某些目录页面,不想被搜索引擎抓取。对于第一种,如果完全不想让搜索引擎抓取,你建议在本地测试,或者是采用其他的域名绑定线上测试,测试没有问题之后再绑定目标域名。至于第二种,其实是没有办法的,因为如果搜索引擎不按照robots规则,那我们似乎也没有什么好的办法阻止,如果搜索引擎收录了这些限制抓取的页面,只能去投诉快照了。
但是大家也要注意,搜索引擎抓取robots文件限制的页面,这对于网站来说并不会造成很大的影响。原则上说这不会浪费抓取份额,除了网站首页以后,也很少发现会收录robots限制抓取的内页。所以,大家也不要太过担心,搜索引擎想抓就让它去抓,如果收录了,就去投诉申请删除。
另外有朋友担心安全的问题,搜索引擎蜘蛛只是一个工具,它本身是没有恶意的,只是会按照规则去工作。大家也不要把搜索引擎想得那么坏,如果网站没有敏感的内容,在不影响到网站优化的情况下,让蜘蛛去抓取也没有什么损失。大家莫要惊慌哦!
关于为什么robots禁止抓取了但搜索引擎还会抓取的问题,本文就简单的说这么多。总之来说,理论上搜索引擎还是会遵循robots规则的,不会胡乱收录这些禁止收录的页面。
为什么robots禁止抓取了但搜索引擎还会抓取所属标签robots 下的相关文章推荐
- 网站robots文件可以加sitemap.txt吗 - 浏览量:3051
- 独立移动端网站有必要设置robots吗 - 浏览量:2237
- robots.txt文件,robots协议,robots.txt有什么作用 - 浏览量:19518
- 网站一定要添加robots文件吗 - 浏览量:5901
- robots需要禁止后台目录吗 - 浏览量:4862
- 修改网站的ROBOTS.txt是否会影响蜘蛛爬取 - 浏览量:5459
- robots.txt文件放在哪里 - 浏览量:9447
- 网站误封了robots怎么办 - 浏览量:4399
- 为什么robots文件更新了很久蜘蛛还在抓取被禁止的文件 - 浏览量:4393
- 网站robots文件是否需要放网站地图 - 浏览量:4076
上一篇>> 论网站SEO诊断的重要性下一篇>> 谈谈网站流量的价值问题
沐风博客最新文章
- 文章断更对网站有什么影响 - 2024-09-14
- 很久没更新,沐风博客首页关键词上来了几个 - 2024-08-28
- 外链优化是什么,外链优化的原则和步骤 - 2024-07-25
- 微信视频号流量池规则和流量算法,分级标准及打开流量池的8大技巧 - 2024-07-24
- 百度搜索对技术性内容有特别的展示机制 - 2024-07-24
- 百度搜索的“普通收录”功能貌似没有作用 - 2024-07-21
- 百度搜索貌似在打击SEO优化 - 2024-07-19
- 抖音新账号播放也能做到10万+ - 2024-07-16
- 抖音直接在手机上发作品貌似没有标题 - 2024-07-08
- 微信视频号点赞的都是好友吗 - 2024-07-08