1. 您的位置:首页 > seo技术 >内容

SEO:杀死重复内容的7种方法

重复的内容是电子商务网站所特有的。 看来,无论SEO多么友好,每个平台都会产生某种形式的重复内容,从而使网站无法达到最佳性能。

首先,让我们看看为什么重复内容很重要。 这可能不是您正在考虑的原因。

减刑而不是罚款

与普遍的看法相反,没有重复的内容惩罚。 Google的博客早在2008年就曾说过:“伙计们,让我们一劳永逸地解决这个问题:没有'重复内容惩罚'之类的事情。”

就是说,存在一个非常真实的但重复性不强的搜索引擎优化问题。 遭受重复内容影响的页面类型会发生算法上的衰减或性能下降。

重复的内容会为同一关键字主题引入自我竞争,并在两个或多个页面之间划分链接权限。 这两个问题直接影响了搜索引擎排名的重点:相关性和权威性。

具有多个针对同一关键字主题的页面会使它们与搜索引擎的相关性降低,因为很难确定要排名的页面。 而且,由于多个页面在内部使用相同的关键字主题链接到一起,因此原本可以增强单个页面的链接却弱支持多个页面,却没有一个优势。

那么,“衰减”是削弱站点发送给搜索引擎算法的信号,从而影响站点的排名能力。

这怎么不算罚款呢? 在Google的世界中,当某些页面或整个网站符合垃圾邮件的预定义定义时,“惩罚”是由Google网站质量小组中的真实人员手动执行的。 如果实际上是罚款,则必须有人对网站进行处罚。 衰减本质上是算法算法,并且往往更难诊断,因为Google不会通过算法提醒您通过Google Search Console进行人工惩罚来提醒您算法问题。

有害影响

消除重复内容的问题在于,仅仅杀死页面可能会产生一些不良影响。

  • 客户体验。 在某些情况下,您的购物者需要查看那些页面。 排序的浏览网格,愿望清单页面,打印页面等在技术上可以是重复的内容。 杀死这些页面会损害您的客户体验,并有可能损害您的收入。
  • 链接权限。 每个编入索引的URL至少具有链接权限的细数。 仅仅杀死页面就浪费了链接权限,而讽刺的是,这将对您的SEO造成帮助。

然后,目标是精确确定您需要完成的工作。 您要删除搜索引擎页面,但保留给购物者吗? 您是否需要消除购物者和搜索引擎的页面? 无论SEO是否受到影响,立即出于法律或其他原因而放弃该页面是否更重要,还是您打算通过计划中的措施使SEO受益?

下表可以帮助您逐步完成决策过程。

删除重复内容的7种方法

方法影响机器人影响购物者通过链接授权取消索引网址搜索引擎命令对搜索引擎的建议
301重定向(永久) 是的是的是的是的是的
规范标签是的是的是的是的
302重定向(临时) 是的是的对,但是... 是的
Google Search Console:删除网址是的是的是的
找不到404文件是的是的是的是的
元索引是的是的对,但是...
Robots.txt不允许是的是的对,但是...

列表上的第一个选项是301重定向,是SEO节目的主角。 尽可能使用301重定向删除重复的内容,因为它是唯一可以完成重定向机器人和客户,将链接权限传递给新URL并为旧URL取消索引的重要组合的内容。 与某些其他选项不同,301重定向是搜索引擎的命令,与可能被忽略的简单请求相反。

如果您的开发团队对301重定向不满意,或者购物者需要继续查看搜索引擎认为重复内容的页面,请尝试使用规范标签。 这些仍然需要开发人员支持,但是它们在运行时需要较少的测试来实现和使用较少的服务器资源。 但是请记住,如果Google认为您犯了一个错误,或者由于某种算法原因而不想遵循它们,则可以忽略规范标签。

排名第三的是302重定向,尽管它们只在列表中,因为它们与功能强大的301重定向相关。 根据Google工程师John Mueller的说法,302重定向确实可以通过链接授权,但是在99%的情况下,没有理由去检验这种理论,因为301重定向可以用相同的努力完成更多工作。 使用302重定向的原因是,如果该重定向确实是临时的,并且Google不应该对该页面进行索引编制,因为它很快就会回来。

删除内容有害

其余四个选项仅会取消索引内容。 它们不会重定向漫游器或购物者,也不会将链接权限传递给另一个页面。 因此,如果它们是唯一可行的选择,请使用这些选项,因为杀死页面而不重定向它们会浪费链接权限。

链接权限是自然搜索中最有价值和最难获得的商品。 您可以创建精彩的内容。 您可以优化内部链接结构,以在自己的站点中将权限传递到需要的地方。

但是,以合乎道德的方式从真正多样且权威的外部站点**中增加链接权限需要的是运气,数字推广,新闻关系,社交媒体营销,离线营销等罕见的组合。 掌握它的站点数量很少。

如果必须杀死某个页面,请确定是纯粹出于SEO原因(例如重复的内容)还是出于法律原因(例如没有人应该再次看到它)将其杀死。 如果您只想暂时将其从Google排除,则可以在Google Search Console中的“删除URL”工具(“ Google索引”>“删除URL” )中快速轻松地做到这一点。 客户在浏览时仍会在网站上看到它,但是Google会立即对其进行索引删除。 小心此工具。 错误地使用它可能会破坏整个站点的索引。

从人员和机器人可见性中真正删除页面的唯一方法是从服务器上删除该页面,从而强制URL返回404“找不到文件”错误,或301将其重定向到新的URL。

由于多种原因,Meta robots noindex标签和robots.txt不允许命令是我列表中的最后一个选项。 首先,它们浪费了链接权限。 Noindex和robots.txt不允许命令以不同的方式告诉搜索引擎它们不应为某些页面建立索引。 如果页面已被索引,则它具有一定数量的链接权限,无论该链接权限很小。 不要通过告诉搜索引擎只忽略URL并悄悄地对它们进行索引来浪费它。

其次,搜索引擎曾经严格遵守noindex,而robots.txt则禁止使用命令。 但是如今,搜索引擎有时将它们视为建议,尤其是对于已被索引的内容。 因此, noindex和robots.txt不允许命令被命中和遗失,并且当搜索引擎服从它们时,它们可能需要几个月的时间才能生效。 如果您想对某些索引进行索引删除,那么可以肯定地选择另一种方法。

但是,一旦内容被取消索引,Meta robots的noindex标签和robots.txt禁止命令将作为一种安全措施而有所帮助。 对于未索引的内容,与已经索引的内容取消索引相比,它们在防止将来的索引方面更有效。

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。如若转载,请注明出处:http://www.botadmin.cn/sylc/11497.html