浅析为何优化网站能让搜索引擎容易抓取与收录内容_SEO优化教程

编辑Tag赚U币
教程Tag:暂无Tag,欢迎添加,赚取U币!

推荐:如何做到1个月日IP从1千到2万
通过近2个多月以来对去年建立的一个网站的SEO实战经验来对百度SEO做一些分析。说起这个站,关于旅游类中的某个方面的,其实是去年5月份建立的,从很多人的角度看应该归属垃圾站行列的。该站属于但页面类型的,针对的也就那么4、5个 关键词。去年成立以后只是

网络世界极其庞大;每时每刻都在产生新的内容。Google 本身的资源是有限的,当面对几近无穷无尽的网络内容的时候,Googlebot 只能找到和抓取其中一定比例的内容。然后,在我们已经抓取到的内容中,我们也只能索引其中的一部分。URLs 就像网站和搜索引擎抓取工具之间的桥梁: 为了能够抓取到您网站的内容,抓取工具需要能够找到并跨越这些桥梁(也就是找到并抓取您的URLs)。如果您的URLs很复杂或冗长,抓取工具不得不需要反复花时间去跟踪这些网址;如果您的URLs很规整并且直接指向您的独特内容,抓取工具就可以把精力放在了解您的内容上,而不是白白花在抓取空网页或被不同的URLs指引却最终只是抓取到了相同的重复内容。

在上面的幻灯片上,您可以看到一些我们应当避免的反例--这些都是现实中存在的URL例子(尽管他们的名称由于保护隐私的原因已经被替换了),这些例子包括被黑的URL和编码,冗余的参数伪装成URL路径的一部分,无限的抓取空间,等等。您还可以找到帮助您理顺这些网址迷宫和帮助抓取工具更快更好地找到您的内容的一些建议,主要包括:去除URL中的用户相关参数。那些不会对网页内容产生影响的URL中的参数——例如session ID或者排序参数——是可以从URL中去除的,并被cookie记录的。通过将这些信息加入cookie,然后301重定向至一个“干净”的URL,你可以保持原有的内容,并减少多个URL指向同一内容的情况。

控制无限空间。你的网站上是否有一个日历表,上面的链接指向无数个过去和将来的日期(每一个链接地址都独一无二)?你的网页地址是否在加入一个&page=3563的参数之后,仍然可以返回200代码,哪怕根本没有这么多页?如果是这样的话,你的网站上就出现了所谓的“无限空间”,这种情况会浪费抓取机器人和你的网站的带宽。如何控制好“无限空间”,参考这里的一些技巧吧。阻止Google爬虫抓取他们不能处理的页面。通过使用你的robots.txt 文件,你可以阻止你的登录页面,联系方式,购物车以及其他一些爬虫不能处理的页面被抓取。(爬虫是以他的吝啬和害羞而著名,所以一般他们不会自己 “往购物车里添加货物” 或者 “联系我们”)。通过这种方式,你可以让爬虫花费更多的时间抓取你的网站上他们能够处理的内容。

一人一票。 一个 URL, 一段内容。在理想的世界里,URL和内容之间有着一对一的对应:每一个URL会对应一段独特的内容,而每一段内容只能通过唯一的一个URL访问。越接近这样的理想状况,你的网站会越容易被抓取和收录。如果你的内容管理系统或者目前的网站建立让它实现起来比较困难,你可以尝试使用rel=canonical元素去设定你想用的URL去指示某个特定的内容。

分享:浅析企业网站SEO实战日记
近期接受一个SEO项目,前期我做了如下分析: 一、 关键字定位 该公司主营货架业务,即超市、书店、仓库等,放置货物的架子,通过对其以往情况的了解、判断及结合google的关键字工具:(https://adwords.google.com/select/KeywordToolExternal) 分析后得知,其

来源:模板无忧//所属分类:SEO优化教程/更新时间:2009-12-29
相关SEO优化教程