内容重复满天飞 解决网站内容复制几点建议

在各类会议上总有一些有趣的事情。会上,搜索引擎公司总会有重大的宣布,业界重要人物也总会发表主题演讲。在旧金山召开的“复制内容和多网站问题”大会上,一个有趣的事情就是网站复制内容的大量存在。雅虎负责搜索相关业务的主管Ivan Davtchev指出,有30%的网站内容由复制内容构成。

我的第一反应是,“每10个网页中就有三个网页是复制内容。”随后,我进一步想到,“网站是不相关内容复杂状态”。在搜索引擎中,人们对决定域名整体权威性和相关性的链接产生了怀疑。

接着,他解释了复制内容的三种基本类型:一是偶然的内容复制。当网站管理人员无意识地允许内容被复制是,就会出现这种情况。

二是关于骗人的内容复制。这主要包括多个域名的内容复制。

三是侵略性内容复制。这包括通过不择手段进行内容复制。

谷歌搜索质量团队的Greg Grothaus对此就有研究,并指出谷歌正在努力索引信息,显示不同的信息。众所周知,谷歌使用一种防止技术来过滤复制的内容。比如,绝大多数的网站都有每个文章的固定和打印版本。谷歌在搜索结果中只提供一种形式的复制内容。鉴于绝大多数的打印网页是最终的URL,因此评估谷歌搜索结果中喜爱的网页也相对简单。

谷歌视内容复制为一种侵略行为,旨在操纵排名或是欺骗用户,为此,谷歌将对索引内容和排名网站进行适当调整。

如果你的网站存在复制内容的问题,你如何发现?试着进行以下快速测试。

——如果你的主页有多个URL,你就会有复制内容。

——如果你进行网站的任何网页,并删除了“WWW”,就会提供相同的内容,你可能有复制内容。

——如果你产生了错误,或是删除了目录路径,你可能有相同的内容,因此,你可能有复制内容。

——如果你从打印网页中孤立URL,并运行高级索引检查,你可能有复制内容索引。

鉴于一般会出现偶然性内容复制问题,因此容易找到解决问题的方法。在搜索引擎网站管理人员博客和论坛中,阅读并使用最好的实践案例,以下是三大搜索引擎:——Bing——谷歌——雅虎。

如果你确信对网站进行了标准化处理,301可将任何复制主页URL改道到你的标准化域名中,使用robots.txt消除网站内容复制,使用宏描述robots.txt标签消除网页级复制内容,使用标准化标签指示相关内容,你可消除偶然开发的多种复制内容。

对于偶然性复制内容,找到解决办法较为容易。开发一个用户友好型的URL网站,优化你的品牌,同时消除无效的索引,如此,你的网站将能从搜索引擎获得信任。

如果这种做法对于你来说过于复杂,则你需要专业的支持和帮助。如果你的网站存在欺骗式或是侵略式内容复制问题,希望你重返旧金山,因为我们会继续讨论关于复制内容的问题。

原文地址:http://column.iresearch.cn/u/PJ_Fusco/archives/2009/178194.shtml