什么是搜索引擎蜘蛛抓取份额?

来源:未知 浏览 121次 时间 2021-06-03 10:08

顾名思义抓取份额是搜索引擎蜘蛛花在一个网站上的抓取页面的总的时间上限。对于特定网站搜索引擎蜘蛛花在这个网站上的总时间是相对固定的网络销售方案搜索引擎蜘蛛花在这个网站上的总时间是相对固定的不会无限制地抓取网站所有页面。

什么是搜索引擎蜘蛛抓取份额?

一、抓取需求

抓取需求crawl demand指的是搜索引擎“想”抓取特定网站多少页面。

什么是搜索引擎蜘蛛抓取份额?

二、抓取速度限制

搜索引擎蜘蛛不会为了抓取更多页面把人家网站服务器拖垮所以对某个网站都会设定一个抓取速度的上限crawl rate limit也就是服务器能承受的上限在这个速度限制内蜘蛛抓取不会拖慢服务器、影响用户访问。

服务器反应速度够快这个速度限制就上调一点抓取加快服务器反应速度下降速度限制跟着下降抓取减慢甚至停止抓取。所以抓取速度限制是搜索引擎“能”抓取的页面数。

四、抓取份额是由什么决定的?

抓取份额是考虑抓取需求和抓取速度限制两者之后的结果也就是搜索引擎“想”抓同时又“能”抓的页面数。网站权重高页面内容质量高页面够多服务器速度够快抓取份额就大。

五、小网站没必要担心抓取份额

小网站页面数少即使网站权重再低服务器再慢每天搜索引擎蜘蛛抓取的再少通常至少也能抓个几百页十几天怎么也全站抓取一遍了所以几千个页面的网站根本不用担心抓取份额的事。数万个页面的网站一般也不是什么大事如果每天几百个访问要是能拖慢服务器SEO就不是主要需要考虑的事了而是怎么优化你的网站提升服务器配置了。

六、大中型网站经常需要考虑抓取份额

几十万页以上的大中型网站可能要考虑抓取份额够不够的问题。抓取份额不够比如网站有1千万页面搜索引擎每天只能抓几万个页面那么把网站抓一遍可能需要几个月甚至一年也可能意味着一些重要页面没办法被抓取所以也就没排名或者重要页面不能及时被更新。

要想网站页面被及时、充分抓取首先要保证服务器够快页面够小。如果网站有海量高质量数据抓取份额将受限于抓取速度提高页面速度直接提高抓取速度限制因而提高抓取份额。

如下图某网站百度抓取频次:


页面抓取频次和抓取时间(取决于服务器速度和页面大小)没有什么大关系说明没有用完抓取份额不用担心。大型网站另一个经常需要考虑抓取份额的原因是不要把有限的抓取份额浪费在无意义的页面抓取上导致应该被抓取的重要页面却没有机会被抓取。

浪费抓取份额的典型页面有:

站内复制内容

低质、垃圾内容

日历之类的无限个页面

上面这些页面被大量抓取可能用完抓取份额该抓的页面却没抓。

怎样节省抓取份额?

当然首先是降低页面文件大小提高服务器速度优化数据库降低抓取时间。然后尽量避免上面列出的浪费抓取份额的东西。有的是内容质量问题有的是网站结构问题如果是结构问题最简单的办法是robots文件禁止抓取但多少会浪费些页面权重因为权重只进不出。

某些情况下使用链接nofollow属性可以节省抓取份额。小网站由于抓取份额用不完加nofollow是没有意义的。大网站nofollow是可以在一定程度上控制权重流动和分配的精心设计的nofollow会使无意义页面权重降低提升重要页面权重。搜索引擎抓取时会使用一个URL抓取列表里面待抓URL是按页面权重排序的重要页面权重提升会先被抓取无意义页面权重可能低到搜索引擎不想抓取。

最后几个说明:

链接加nofollow不会浪费抓取份额。但在Google是会浪费权重的。

标签: 页面份额网站抓取