网站优化中应对蜘蛛抓取的基本策略是什么?

文章出处: 上传日期:2023-08-08阅读数量:

在网站优化中蜘蛛实际抓取网页的过程中,因为网页内容的复杂性(文本、Flash、 视频等)和技术实现的多样性(纯静态、动态加载等),为了更高效地利用蛛蛛资源,搜索引擎公司会置顶不同的抓取策略,作为SEO人员,那么网站优化中应对蜘蛛抓取的基本策略是什么?下面可以参考搜素引擎公司对抓取策略的描述,采用最大化的SEO方法。


网站优化中应对蜘蛛抓取的基本策略是什么?


作为国内最大的搜索引擎公司,百度在它的官方文档中是如下这样描述抓取策略的。

互联网资源具有庞大的数量级,这就要求抓取系统尽可能高效地利用带宽,在有限的硬件和带宽资源下尽可能多地抓取到有价值的资源。这就造成了另一个问题,耗费被抓取网站的带宽造成访问压力,如果程度过大,将直接影响被抓取网站的正常用户访问行为。因此,在抓取过程中要进行一定的抓取压力控制,实现既不影响网站的正常用户访问,又能尽量多地抓取到有价值资源的目标。

通常情况下,采用的最基本的方法是基于IP的压力控制。这是因为如果基于城名,可能存在一个域名对多个IP (很多大网站)或多个城名对应同一个IP (小网站共享IP )的问题。实际工作中,往往根据IP及域名的多种条件进行压力控制。同时,站长平台也推出了压力反馈工具,站长可以人工调配对自己网站的抓取压力,这时Baiduspider将优先按照站长的要求进行抓取压力控制。

对同一个站点的抓取速度控制一般分为两类:其一 ,一段时间内的抓取频率;其二,一段时间内的抓取流量。同一站点不同的时间抓取速度也会不同,例如,夜深人静的时候抓取的可能就会快一些。 也视具体站点类型而定,主要思想是错开正常用户访问高峰,不断地调整。对于不同站点,也需要不同的抓取速度。

上面的描述很简洁,但是从这个描述里面,我们可以得到启发,蜘蛛抓取页面是有压力控制的,对于特别大型的网站来说,不可能指望蜘蛛爬行到一个网站后,会一次性抓取到所有的网站,因此,作为SEO人员来说,尽量减少蜘蛛的压力,对网站的网页收录是有好处的。一般来说,减轻蜘蛛压力有以下两种方法。

方法一:采用Nofollow (反垃圾链接的标签)的策略,将蜘蛛引导到最有价值的页面。Nofollow标签用来告诉蜘蛛,如果遇到带着此标签的页面或者链接,就不要继续追踪了,这样蜘蛛就可以爬行到其他更加有用的页面。

方法二:在Sitetap中定义不同页面的权重和更新频率,就是在网站的Sitemap文件中,定义好每个链接的权重和更新的频率,这样,蜘蛛在爬行到这些链接和页面的时候,会识别哪些页面比较重要, 可以重点抓取,哪些页面更新比较频繁,需要蜘蛛分配更多的注意力。

以上就是《网站优化中应对蜘蛛抓取基本策略》的全部内容,仅供站长朋友们互动交流学习,SEO优化是一个需要坚持的过程,希望大家一起共同进步。


上一篇:网站优化中影响网站权重的因素有哪些?

下一篇:网站优化中需要留意的几大内链类型是什么?

最新案例