robots.txt

来源:未知 浏览 1022次 时间 2021-03-13 13:11

robots.txt是什么?

有不想过,假如咱们某个站点不让百度和google收录,那何如办?

搜集引擎已经和咱们完成一个商定,假如咱们按商定那样搞了,它们便不要收录。

这个写商定的的文件定名为:robots.txt。

robots.txt是一个最大概的.txt文件,用以通告搜集引擎哪些网页不妨收录,哪些不答应收录。

闭于robots.txt普遍站长须要注沉以下几点:

1、假如你的站点闭于十脚搜集引擎刻意,则不必搞这个文件大概者robots.txt为空便行。

2、必定定名为:robots.txt,都是小写,robot背后加"s"。

3、robots.txt必定放置在一个站点的根目录下。如:经过https://www.seowhy.com/robots.txt 不妨成功参瞅到,则证明本站的放置透彻。

4、普遍情境下,robots.txt里只写着二个函数:User-agent和 Disallow。

5、参瞅这个页面并建改为本人的:https://www.seowhy.com/robots.txt

6、有几个遏止,便得有几个Disallow函数,并分行刻画。

7、起码要有一个Disallow函数,假如都答应收录,则写: Disallow: ,假如都不答应收录,则写:Disallow: /  (注:然而差一个斜杆)。

补充证明:

User-agent: *  星号证明答应十脚搜集引擎收录

Disallow: /search.html   证明 https://www.seowhy.com/search.html 这个页面遏止搜集引擎抓取。

Disallow: /index.php?   证明犹如如许的页面http://www.seowhy.com/index.php?search=%E5%A5%BD&action=search&searchcategory=%25 遏止搜集引擎抓取。

参瞅本文的人还不妨参瞅:

何如样运用标签遏止网页被收录?

标签: 收录Disallow引擎