WordPress SEO 之 Robots.txt优化篇_SEO优化教程

编辑Tag赚U币
教程Tag:暂无Tag,欢迎添加,赚取U币!

推荐:wordpress插件推荐:最好用的SEO插件
Head META Description - 根据你播客的内容为你的博客提供动态的 meta 描述。 http://guff.szub.net/2005/09/01/head-meta-description Wordpress 最好的 Tag 插件。它可以很好地为用户提供导航。 http://www.neato.co.nz/ultimate-tag-warrior/ Google Sitemaps - 为

由于链接的的指向,而导致网站内容重复,一直是网站SEO的大忌。不同的链接指向同一个网页,就会被搜索引擎判定为作弊。昨天提到的WordPress重定向插件,在一定意义上也是为了阻止重复内容。然而,由于WordPress的结构原因,往往就会发生网页内容重复的状况。例如:http://www.domain.com/archive/1 和 http://www.domain.com/archive/1/feed两个网址下的内容就是一样的,所以,我们就必须想办法阻止这样的情况发生。

通常,解决重复内容的方法有:使用noindex标签,利用excerpt实现内容摘要,以及配置robots.txt。今天就主要说说在WordPress下使用robots.txt文件。

robots.txt文件就像一个网站的大门,它会告诉搜索引擎的蜘蛛,可以抓取哪里的网页内容,哪里的不能抓取。因此,配置好robots.txt文件,完全可以理想的组织blog内容重复的问题。robots.txt的具体文法和使用方法,可以参考robotstxt.org。在国内,此类的WordPress robots.txt比较流行:


User-agent: *
Disallow: /wp-
Disallow: /feed/
Disallow: /comments/feed
Disallow: /trackback/
Disallow: /?s=

刚才看到 filination.com上面提到的一个robots文件,并且提供了简短的解释。刚刚接触robots.txt文件的朋友,可以参考一下:

User-agent: Googlebot

# Disallow all directories and files within
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/

# Disallow all files ending with these extensions
Disallow: /*.php$
Disallow: /*.js$
Disallow: /*.inc$
Disallow: /*.css$

# Disallow parsing individual post feeds, categories and trackbacks..
Disallow: */trackback/
Disallow: */feed/
Disallow: /category/*

Robots.txt因人而异,不同的人对robots有不同的理解,在加上SEO一直是一个热门话题,所以WordPress的robots文件不会是唯一的,也不会有一个最好的。大家要是有觉得更好的,不妨分享一下。

分享:案例-卓越、当当是如何用搜索引擎推广
本文主要介绍卓越和当当两个最大的B2C网站如果利用搜索引擎来推广B2C产品,包括两者在搜索引擎的选择策略、关键词的选择、关键字的位置、关键字的广告内容,关键词的广告管理等方面的介绍和比较。 卓越和当当是现实中的2个竞争对手,很显然竞争无处不在。在搜索引擎的

来源:模板无忧//所属分类:SEO优化教程/更新时间:2008-04-26
相关SEO优化教程