怎么让蜘蛛熟悉自己(房间里有蜘蛛睡觉危险吗)

   搜狗SEO    

很多客户经常问我,网站还没有被搜索引擎收录,网站也经常更新,但在搜索引擎上就是搜索不到,本期勇哥就带大家学习一下如何快速让搜索引擎收录网站。

学习之前,先熟悉一下一个协议,robots协议也叫robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被漫游器获取的。因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据(Metadata,又称元数据)。robots协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。以上是某百科的解释。那如何生成,咱们稍后再讲,既然是告诉搜索引擎那些是可以搜索的,那些是不能搜索的,自然是要先生成网站的sitemap(网站地图)文件,目的就是告诉搜索引擎抓取的范围,我们看如何生成网站的地图文件,咱们继续。

首先打开在线生成网址,输入要收录的域名,点击抓取,系统会自动开始进行蜘蛛爬行,抓取时间根据网站内容的多少,完成后下载相应格式的文件。我们选择xml格式。

文件下载好并上传到网站的根目录。打开搜索引擎的资源网站,登录帐号进入,站点管理,添加网站,根据网站的协议头的类型选择http/https,输入待抓取的网站域名。继续选择站点的领域。

第三步开始验证网站的所有权,一共有三站验证方式,根据自己的实际情况选择。

完成验证后就可以对网站进行搜索引擎的提交了。

提交完成后搜索引擎会自动抓取网站地图文件中的网址并推送给搜索引擎抓取。

如何能让搜索引擎,自动实现抓取哪,现在再来说说robot.txt 文件,其内容格式为:

图中的1代表允许所有搜索引擎的抓取,2代表 这些目录不允许搜索引擎抓取,3代表读取xml文件。文件的格式明白了,就可以根据自己的实际情况,修改文件内的内容了。修改完成后,同样要上传到待抓取网站的根目录。

点击下图的检测并更新。

以上操作完成,选择抓取诊断工具,可以让站长从蜘蛛的视角查看抓取内容,自助诊断蜘蛛看到的内容和预期是否一致。

稍等片刻后会显示抓取的结果。

全部设置完成后,第二天就会看到具体的搜索引擎的抓取数据了。

资源工具也提供了抓取异常的诊断,站长根据系统提示的具体内容可以及时地对网站进行修补完成,达到0抓取异常的效果。

通过以上可以发现,想要蜘蛛爬虫稳定良性的访问,就要保持良好的更新网站的习惯,在更新完内容后,及时重新生成sitemap文件并上传到网站的根目录,这样网站进入良性期,想不让搜索引擎抓取都不行。本期学习结束,咱们下期见吧!

 标签:

评论留言

我要留言

欢迎参与讨论,请在这里发表您的看法、交流您的观点。