百度蜘蛛爬行原理(百度蜘蛛抓取记录)

   谷歌SEO    

有网站不懂做优化?不懂什么是SEO?网站SEO优化排名怎么做都上不去?

因为你不懂SEO,了解SEO优化的核心,优化还难吗?那都不是事。

上篇文章我们介绍了搜索引擎的工作原理。我们知道搜索引擎会通过蜘蛛抓取网站页面。那今天我们就来说说关于蜘蛛的介绍。

什么是蜘蛛

搜索引擎用来爬行和访问页面的程序被称为蜘蛛(Spider ),也称为机器人(bot)。蜘蛛访问任何一个网站时,都会先访问网站根目录下的robots.txt文件。如果Robots.txt文件禁止搜索引擎抓取某些文件或目录,蜘蛛将遵守协议,不抓取被禁止的网址。

和浏览器一样,搜索引擎也有标明自己身份的代理名称,站长可以在日志文件中看到搜索引擎的特定代理名称,从而辨识搜索引擎蜘蛛。

通俗一点:蜘蛛就是搜索引擎用来爬行和访问页面的程序,蜘蛛就是一段程序。

平时我们用得比较多得叫百度蜘蛛(baiduspidere),除了百度蜘蛛,还有很多蜘蛛。不同的搜索引擎蜘蛛名称不一样。

BaiduSpider---百度蜘蛛

Googlebot---谷歌机器人(谷歌蜘蛛)

Bingbot---必应机器人(必应蜘蛛)

360Spider---360蜘蛛

SogouSpider---搜狗蜘蛛

还有很多国外搜索引擎没有列举出来,比如雅虎。目前在中国主流的三大搜索引擎百度、360好搜、搜狗。知道这三个搜索引擎就可以了。雅虎、谷歌已经退出中国市场。

认识了什么是蜘蛛,我们都知道蜘蛛是爬行和访问网站的程序,那么如何让自己来抓取自己网站呢?很简单,让蜘蛛喜欢上自己,我们可以主动吸引蜘蛛,吸引蜘蛛,就得明白蜘蛛喜欢什么?蜘蛛喜欢什么呢?

①网站和页面权重

质量高,资格老的网站被认为权重比较高,这种网站上面页面被爬行的深度也会高,所以会有更多页面被收录。

②页面更新度

蜘蛛每次爬行都会把页面数据储存起来,如果蜘蛛第二次爬行发现与第一次收录完全一样,说明页面没有更新,蜘蛛也就没有必须经常更新,如果页面经常更新,蜘蛛就会更加频繁地访问这种页面,页面上出现新的链接,也自然会被蜘蛛更快的跟踪,抓取新页面。

③导入链接

无论是外部链接还是同一个网站的内部链接,要被蜘蛛抓取,就必须有导入链接进入页面,否则蜘蛛根本没有机会知道页面的存在。高质量的导入链接也经常使页面上的导出链接被爬行深度增加。

④与首页点击距离

一般来说网站上权重最高的是首页,大部分外部链接都是导入首页的,蜘蛛访问最频繁的也是首页。离首页的距离越近,页面权限越高,被蜘蛛爬行的机会也越大。

上面几点就是蜘蛛比较喜欢的内容,只有把我们自己的网站做成蜘蛛喜欢的模样,才可能让蜘蛛经常来访问抓取自己网站的页面。上面都是理论,大家如果不理解没关系,后面的文章会介绍。

既然知道了蜘蛛喜欢什么,同时让蜘蛛能来到自己的网站,那我们就有很多东西不想让蜘蛛知道的。不想让蜘蛛抓取跟访问,怎么办?

我们提到蜘蛛访问任何一个网站时,都会先访问网站根目录下的robots.txt文件。如果Robots.txt文件禁止搜索引擎抓取某些文件或目录,蜘蛛将遵守协议,不抓取被禁止的网址。

那么什么是什么robots文件?Robots文件在哪呢?如何写robots文件?

后面的文章会给大家介绍如何写robots.txt文件。

下一篇文章:《搜索引擎工作原理-预处理规则详解》,之前文章计划错误,中间加入了蜘蛛介绍。

 标签:

评论留言

我要留言

欢迎参与讨论,请在这里发表您的看法、交流您的观点。