谷歌不在收录pc版网页怎么办(pc谷歌浏览器用不了)

   搜狗SEO    

影响网站在谷歌搜索中排名的因素是非常多,但通常我们认为只有网站对搜索引擎足够友好,才能有机会获得排名。

但很多人并不知道自己的网站问题出在哪里,下面就给大家整理了一份标准版的网站SEO检查清单,大家可以按照下面的清单逐项对照排查,看网站哪里出了问题。

根据经营类目不同,网站的栏目划分会略有不同,不过下面这些是都需要具备的:

网站逻辑结构清晰:基本原则就是让用户以最短的点击次数找到想要的内容。比如从首页到某一个具体的产品页面,通常情况下我们建议把点击次数控制在3-4次之内。

我是Dora,做了十几年谷歌seo推广,对各类企业网站的推广都有丰富的经验,大家的网站如果遇到了什么问题,欢迎随时找我。

核心页面的关键词布局:假设你想把20个关键词分布到网站上,那么就要规划好哪一些关键词放在首页,哪一些放在栏目页,哪一些放在内容页,而不是随心所欲的想起哪个关键词就放哪个。

内部链接规划:内部链接应该是有规划的,页面之间怎么链接,用什么关键词链接,而不是都用核心词做锚文本。

假设你主要想做谷歌,那网站就一定要对接到谷歌的搜索站长工具,虽然这不能直接提升排名,但是可以帮你随时清晰地查看网站现状。

另外,对应的数据平台也应该接入,方便随时掌握网站的流量状况。

站点地图是存储在服务器根目录的一个名叫sitemap.xml的文件,它的作用是帮助搜索引擎了解网站页面。

通过提交站点地图,可以告诉网站最近新增了什么页面,方便搜索引擎的抓取和收录,记住,一切排名的基础都是内容被索引。

和站点地图一样,robots文件也是一个存放在根目录下的文档文件,他的作用我们可以简单地理解为是一把控制在你手里的锁。

通过这把锁,你能决定谷歌哪些页面可以被收录,哪些不允许被收录。比如大家一定要网站后台的地址屏蔽掉,不允许收录,不然被别人找到后台地址,是网站安全的一个极大的隐患。

有时候尽管搜索引擎蜘蛛已经抓取到了你的页面,但是在搜索关键词的时候还是看不到这个页面,这可能是以下几个因素造成的:

Robots.txt 文件中 robots.txt 原标记中的“ Noindex”值

在 HTTP 响应头中的 x?Robot-tag 中的“ Noindex”或“ none”值

如果有类似的情况,可以针对性排查。

这里说的主要是网站多域名指向不一样的情况,比如你的网站域名是xxx.com,那正常情况下,xxx.com和www.xxx.com都应该指向你的网站首页,并且给xxx.com用301做重定向。

有的时候一些公司因为要绑定企业邮箱,会用到域名,会造成带www和不带www的域名无法指向一个网站,这个尽量避免。

另外就是https的问题,如果网站安装了ssl证书,那一定要在设置中给不带https的域名做强直跳转,不然https和http可能会冲突。

要着重检测移动端网站的适配样式和打开速度。很多公司开发网站的时候都会把重心放在pc端上,最后移动端是“硬”适配过去的。

这样容易导致网站移动端的体验非常不好,打开之后页面排版乱,而且字号也不适合在手机上阅读,这都是影响网站排名的因素。

这里面包含两个问题,一个是网站在网速正常情况下打开的速度。要注意服务器地区的选择,你重点做哪个地区的市场,就把服务器放在哪里。

比如你重点做美国,服务器就选择美国。另一个是不管任何网站,都要每周去检查网站是否可以正常打开。

再高配置的服务器,再稳定的程序也都有宕机的可能,没有人可以确保网站稳定性不出任何问题,所以最保险的做法就是经常打开网站自查。

网站不是开发好了就完了,后面要有定期的安全维护动作。比如检查服务器安全,定期对网站内容做全站备份。

网站的备份是非常有必要且一定要做的工作,一旦网站服务器遭到不可逆转的攻击,备份文件可以帮你快速恢复网站,避免业务受到损失。

我们经营的业务不会经常变化,但是这个世界在变。用户的搜索习惯也在改变,所以要定期关注行业内搜索词的大数据,查看行业是否有新增的关键词。

这些新增的词往往代表了用户当下的搜索习惯,能够在最快的时间抓住机会,那这些词很可能就能帮助你的业务快速提升。

图片、视频可以在很大程度上改善用户体验,但是多媒体的应用如果没有处理好细节,也可能会导致网站速度受到影响。

曾经就经历过一个企业的网站,整体设计都非常好,但是图片没有做好压缩处理,导致网站打开速度特别慢,这样即使图片设计的再精美,也没有什么作用了。

最后:网站要想获得更加靠前的排名,不只是需要我们持续优化,更需要我们能建立一个长期、有规划的体检计划,时刻确保网站处在良好的状态中。

 标签:

评论留言

我要留言

欢迎参与讨论,请在这里发表您的看法、交流您的观点。