当前位置: 沐风博客 >> SEO技术 >>正文

SEO怎么禁止百度蜘蛛爬某个文件夹

重点导读:禁止搜索引擎抓取网站页面,最常用的就是使用robots文件,禁止百度蜘蛛爬行和抓取某个文件夹,可以用下面这段代码: User-agent: Baiduspider Disallow: wenjianjia/
发布人:沐风 - 更新时间:2021-12-02 08:31:19 - 地址:http://www.tangmengyun.com/seo/2161.html - 浏览:4364

问题:SEO怎么禁止百度蜘蛛爬某个文件夹?

回答:禁止搜索引擎抓取网站页面,最常用的就是使用robots文件,禁止百度蜘蛛爬行和抓取某个文件夹,可以用下面这段代码:

User-agent: Baiduspider

Disallow: wenjianjia/

这里简单解释下几个字段概念:

Baiduspider:这个是百度搜索引擎蜘蛛;

Disallow:这表示禁止,不需要蜘蛛抓取

wenjianjia/:这里替换你要禁止百度蜘蛛爬行的文件夹名,这里要注意下,如果在文件夹名称的后面加了 / ,就表示禁止抓取文件夹下面的页面,比如说www.test.com/wenjianjia/abc.html,但是www.test.com/wenjianjia/这个栏目页面还是会被抓取的。所以,想要www.test.com/wenjianjia/也不被抓取的话,就要去掉后面的 / ,也就是下面这样的代码:

User-agent: Baiduspider

Disallow: wenjianjia

关于SEO怎么禁止百度蜘蛛爬某个文件夹的问题,本文就简单的介绍到这里,总之使用robots文件是比较方便的,大家可以使用上面的代码,修改成自己的文件夹名称即可。如果要禁止两个文件夹,那就多复制一行,比如:

User-agent: Baiduspider

Disallow: wenjianjia_one/

Disallow: wenjianjia_two/


SEO怎么禁止百度蜘蛛爬某个文件夹所属标签屏蔽蜘蛛抓取 下的相关文章推荐

沐风博客

SEO编辑教程

企业网站优化视频教程

网站分类

SEO优化

→→ SEO教程

→→ SEO诊断

→→ SEO培训

→→ SEO算法

→→ SEO技术

→→ SEO杂谈

→→ SEO实验室

→→ SEO问答

写作与编辑

→→ 文案编辑

→→ 文章写作

→→ SEO文章

网站及平台运营

→→ 网站运营

→→ 网店运营

→→ 微信运营

→→ 微信公众号运营

→→ 微信视频号

→→ 网站建设

→→ 网页设计

→→ 转化率

营销推广

→→ 互联网创业

→→ 互联网资讯

→→ 网络推广

→→ 网络营销

→→ 百度推广

→→ 公众号推广

→→ 抖音推广

→→ 微博推广

其他分类

→→ 官方文档

→→ 大神专栏

→→ 友情链接平台

→→ 日常办公

互联网时代,搜索引擎/微信公众号/抖音/电商平台等给我们带来了诸多机遇,如何才能更好的把握,这就需要我们掌握必要的知识和技能!沐风博客分享SEO等网络营销推广技术和资讯,帮助大家更好的在互联网发展! - ICP备案号 湘ICP备2022004497号