在做网站SEO优化中robots的写法

2022-09-22 08:31:46 295
摘要:robots.txt是搜索引擎中的一个协议,当你的网站有一些内容不想给蜘蛛爬取,那可以利用robots.txt来告诉蜘蛛不要去爬取这些页面,不爬取这些页面当然就不收录了。

robots.txt是搜索引擎中的一个协议,当你的网站有一些内容不想给蜘蛛爬取,那可以利用robots.txt来告诉蜘蛛不要去爬取这些页面,不爬取这些页面当然就不收录了。

robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。

robots.txt规则怎么写

新建一个txt文本,命名为robots.txt,比如说你不想给蜘蛛去爬你网站后台这个文件夹,那就就这样写,该文件放在网站根目录

User-agent: *

Disallow: /admin/

解释:

User-agent: * 这个是代表所有搜索引擎

Disallow: /admin/ 禁止爬取admin这个文件夹

Disallow: / 代表根目录所有

Allow: / 代表允许 例子:比如说你禁止webdesgn文件夹 但是你又想让他收录webdesign下的wangzhanjianshe 写法Allow: /webdesign/wangzhanjianshe/*.html 收录webdesign下的wangzhanjianshe下的所有html

如果你只想对百度有效,那就这样写。User-agent: Baiduspider 这样只对百度有效,其它搜索引擎不受限制。

搜索引擎蜘蛛的名字:Baiduspider 百度蜘蛛、Googlebot 谷歌蜘蛛、Bingbot 必应蜘蛛、360Spider 360蜘蛛、Sogouspider 搜狗蜘蛛


你觉得这篇文章怎么样?

72 0
扫描二维码与小二CMS创始人沟通

7*24小时为您服务

小二CMS专注于高端网站定制、系统开发、商城开发、外贸网站建设、公众号开发、小程序开发、网站优化推广、安全运维等技术领域。是高端定制网站领域著名服务商!

本文标题:在做网站SEO优化中robots的写法
免责声明:文章《在做网站SEO优化中robots的写法》来至网络,文章表达观点不代表本站观点,文章版权属于原作者所有,若有侵权,请联系本站站长处理!
不忘初心,方得始终
中高端网站定制开发服务商
与我们取得联系
198-1095-0281 460623785

好作品自己会说话,

我们敬畏您给予的点滴信任 !

期待携手合作,请立即咨询我们:
QQ咨询
微信咨询
198-1095-0281
我们用心,期待您成为我们的客户
联系QQ客服

QQ扫码联系客服

联系微信客服

微信扫码联系客服

微信号: 198-1095-0281
添加微信好友, 详细咨询相关信息。

复制并跳转微信
19810950281