1检查机器人协议是否 修改
robots.txt协议是用来告诉搜索引擎网站某些栏目或者页面是不能抓取和收录的在服务器下面就能找到方法。如果此文件被恶意修改就会导致页面无法被搜索引擎抓取
2检查服务器是否被黑
网站服务器是非常容易被攻击的尤其是某种不距离的服务器安全性太差很容易就会被黑掉然后在网站
3检查日志和蜘蛛抓取情况
通过百度后台可以模拟搜索引擎蜘蛛抓取是否正常同时利用软件
4检查网站是否即将改版
网站进行改版尤其是URL更改后还没做301替换这种情况是非常容易引起的 迅速及时做好301更换即可原因。
5检查网站内容
网站内容质量度很低无原创性内容日常更新全靠采集
6检查外链质量
购买过多的单向锚文本链接或发布大量的垃圾链接都是会造成 因此在做外链时只做高平台的有效外链同时友情链接也要长期监测对方如果出现短时间的降权并不严重可怕的是出现 非法内容刚一降权可以稍微等等可能只是一时的也不要急着取消友链这样对搜索引擎也不够友好收录。
如果网站收录量骤降那么可以去百度搜索资源平台反馈 下如果是些许许降幅那还是不要反馈的好先看看情况再说网站。一般网站收录不会无故下降最大的可能就是文章质量不佳采集过多再者就是被黑(服务器网站 程序快照劫持等等)还有就是机器人协议问题网站外链与友链问题等等。说起来容易网页设计制作网站外链与友链问题等等。说起来容易但是做起来可能就没这么容易了还需要耐心一步一步来检测到底哪里出现的 问题。