网站SEO中要避免哪些蜘蛛陷阱呢?

来源:未知 浏览 89次 时间 2021-06-06 15:04

我们从事网站优化的过程中尤其是现在收入对于网站而言是非常重要的网站只有有了比较不错的收录之后搜索引擎优化师只有有了比较不错的收录之后才有可能会取得不错的排名因此在网站设计的时候我们就要尽可能的让蜘蛛能够获取到网站的全部内容信息如果说在网站的程序上或者说是设计上出现了蜘蛛陷阱就会导致蜘蛛无法获取站点的内容。

网站SEO中要避免哪些蜘蛛陷阱呢?

一、JS

有些朋友为了让网站吸引用户的眼球就把导航、网站的首页界面等等都使用了大量的JS脚本这对于蜘蛛抓取也是不利的。对于这一点可能存在一定的争议问题在于到底要不要把它划到蜘蛛陷阱这一块。JS在网站建设中有着举足轻重的作用因为它能为网站实现很多酷炫的效果但是它依旧摆脱不了不利于蜘蛛爬取的问题就这一点来说它可以算是蜘蛛陷阱但是它也可以用在网站的其他方面对咱们做SEO的还是有所帮助的比如为了避免网站权重的分散不想让一些对网站排名毫无意义的页面被收录我们就可以用JS脚本阻止蜘蛛对该页面的抓取而就这一点来说它又是我们做网站优化的好帮手所以对于JS脚本这一点还是全凭自己且用且拿捏吧!

二、框架结构

框架结构里面的html通常情况下是可以被蜘蛛抓取的但是一般情况下这里面的内容不是完整的导致的结果就是搜索引擎无法判断框架里面的内容到底是主框架还是框架调用的文件。

网站SEO中要避免哪些蜘蛛陷阱呢?

三、有过多的flash

不得不说Flash能为我们的网站增色不少恰到好处的Flash能够让我们的网站看起来高端大气上档次但是不要因为它有这些优点我们就可以滥用不管什么地方都去整个Flash什么的那样只会适得其反之所以这么说是由于搜索引擎对Flash的抓取很不理想偶尔用到几乎没什么影响但是如果你的整个首页就只用了一个超大的Flash亦或是页面上面到处都是Flash这就变成了蜘蛛陷阱。虽然搜索引擎一直在竭尽全力攻克这方面抓取的难题但到目前为止效果还是不怎么好所以我们也只能主动避开这些问题。

目前的flash也是蜘蛛难以识别的这对于搜索引擎来说也是一种看不懂的东西那么及时再好的视觉效果也会让搜索引擎无法判断对应的相关性。


四、Session ID

Session ID用户跟踪访问造成的现象就是用户每访问一个页面就会出现不一样的Session ID也就是说访问同样的页面但是出现不一样的ID这就造成了大量重复性的内容也不利搜索引擎优化的。

五、异常跳转

网站的跳转方法多种多样常见的例如:JS跳转、Flash跳转、302跳转等而301跳转要单独来说因为它是搜索引擎推荐和认可的跳转形式它主要用在网站域名更改后将此域名指向彼域名并且还可以将老域名的权重全部继承给新域名。除此之外的杂七杂八的跳转对搜索引擎来说都是不友好的因为跳转本身就不利于蜘蛛的爬取这也就是所谓的蜘蛛陷阱了。

普通情况下是不会做出这样的操作一般灰帽或黑帽的朋友比较喜欢这种操作采用变相引流的方法让页面跳来跳去但是实际上等于欺骗搜索引擎和用户。

六、动态URL

动态URL目前对于搜索引擎来说还是说可以识别的但是如果大量的动态URL是不利于蜘蛛抓取的时间长也不利于优化。

搜索引擎比较喜欢静态网站所以很多的动态网站都会使用伪静态设置。动态URL通俗的解释就是网站链接中带有各种参数、等号、问号或者其它符号而长度还很长的链接对于那些有密集恐惧症的朋友来说这绝对是不能容忍的恰巧的是蜘蛛也患有这种症状(哈哈哈)其实最根本的原因还是动态URL不利于蜘蛛的爬取。

八、强制使用cookies

标签: 来说蜘蛛搜索引擎网站