单仁资讯集团 单仁资讯集团

收藏本站
< 学院专区 < 集团动态 < 学院专区 < 营销资讯 robots.txt有什么作用?robots文件怎么写?

robots.txt有什么作用?robots文件怎么写?

营销资讯
如果我们网站内有某些特殊的文件不让搜索引擎收录,那怎么办?答案是:使用一个叫做robots.txt的文件。robots.txt文件告诉搜索引擎本网站哪些文件是允许搜索引擎蜘蛛抓取,哪些不允许抓取。搜索引擎蜘蛛访问网站任何文件之前,需先访问robots.txt文件,然后抓取robots.txt文件允许的路径,跳过其禁止的路径。总结:robots.txt是一个简单的.txt文件,用以告诉搜索引擎哪些网页可以收录,哪些不允许收录。关于robots.txt文件的10条注意事项:1、如
如果我们网站内有某些特殊的文件不让搜索引擎收录,那怎么办?
答案是:使用一个叫做robots.txt的文件。

robots.txt文件告诉搜索引擎本网站哪些文件是允许搜索引擎蜘蛛抓取,哪些不允许抓取。
搜索引擎蜘蛛访问网站任何文件之前,需先访问robots.txt文件,然后抓取robots.txt文件允许的路径,跳过其禁止的路径。
总结:robots.txt是一个简单的.txt文件,用以告诉搜索引擎哪些网页可以收录,哪些不允许收录。

关于robots.txt文件的10条注意事项:

1、如果未创建robots.txt文件,则代表默认网站所有文件向所有搜索引擎开放爬取。
2、必须命名为:robots.txt,都是小写,robot后面加"s"。
3、robots.txt必须放置在一个站点的根目录下。
     通过如https://www.seowhy.com/robots.txt 可以成功访问到,则说明本站的放置正确。
4、一般情况下,robots.txt里只写着两个函数:User-agent和 Disallow。
5、空格换行等不能弄错,可复制这个页面并修改为自己的。点击
6、有几个禁止,就得有几个Disallow函数,并分行描述。
7、至少要有一个Disallow函数,如果都允许收录,则写: Disallow: 
    如果都不允许收录,则写:Disallow: /  (注:只是差一个斜杆)。
8、允许有多个User-agent,如果对所有爬取蜘蛛生效,则用“*”星号表示。
9、robtos.txt文件内可以放上Sitemap文件地址,方便告诉搜索引擎Sitemap文件地址。
10、网站运营过程中,可以根据情况对robots.txt文件进行更新,屏蔽一些不要搜索引擎抓取的文件地址。

1550649275127724

特约译稿人 单仁资讯

2021.10.12-

一键分享

在线客服

扫码关注

报名参加体验课
  • 报名领取1980元营销课程
  • 公司
  • 姓名
  • 电话
  • 地区