1. 您的位置:首页 > seo技术 >内容

网站审核期间应避免的4个错误

正如所有SEO专家都知道的那样,在搜索引擎中的排名是众所周知的不可预测的追求。 每次更新都可能导致强大的,不可预见的影响。 只需在标题标签,标题标签和内容中添加关键字以获得一些反向链接的排名时代就结束了。 残酷的事实是,许多企业都在努力跟上变化的步伐。

搜索引擎在确定您的信誉时会考虑很多因素。 一些大的是:

  • 内容质量
  • 权威
  • 反应性
  • 网站速度

知道如何精确地改进这些内容要说起来容易做起来难。 因此,始终需要进行质量审核。 请记住,深度审核不是您在几个小时内可以完成的任务。 根据您企业网站的大小,可能需要几天才能完成。

在整个审核过程中,有一些关键的疏忽可能会给您在SERP上的排名带来灾难。 让我们谈谈其中的四个

1.爬行之前先走

首先,为了诊断您的网站上的问题,您需要清楚,完整地了解所使用的工具。 因此,必须对整个网站进行彻底爬网。 如果在进行更改之前忽略了爬网,那么基本上就是在黑暗中拍摄。

如果您不熟悉审核,请先选择一个好的爬网工具。 我推荐Screaming Frog的SEO蜘蛛,因为它的简单性和合理的价格。 但是,如果您正在寻找免费软件,那么BeamUsUp是另一个不错的工具。

首先在“ URL”字段中输入您的网站。

您还可以选择要爬网的子域(如果适用)。

此过程是成功进行审核的关键要素。 它构成了其余任务的路线图,应该始终是第一步。

2.不优先考虑可访问性

简而言之,如果搜索引擎和用户无法访问您的网站,那么您花在设计目标网页和创建品牌内容上的所有时间和资源基本上毫无价值。 话虽这么说,您希望将搜索引擎置于最佳位置以对您的网站建立索引。

现在,您无需搜索引擎即可对网站上的每个文件进行爬网和编制索引。 您可以使用robots.txt文件来指定要爬网的页面和文件夹,而不要爬网的页面和文件夹。 这是robots.txt文件的外观:

在上面的屏幕快照中,网站所有者“禁止”网站的某些部分被抓取。 请务必检查此文件,以确保您不限制搜寻器对网站重要部分或页面的访问,因为这可能对您的排名不利。

可以使用meta robots noindex标记将单个页面与搜索引擎索引隔离。 因此,寻找可能错误地实现了此标签的页面至关重要。 这是元标记的样子:

您最初的网站爬网很可能会显示许多HTTP状态代码。 如果您使用的是Screaming Frog的SEO蜘蛛,则需要在“响应代码”标签下查看这些内容。

以下是一些需要注意的HTTP状态代码:

  • 200:好—所有人(爬虫和用户)都到达了所需的页面。 这是“正确”的代码。
  • 301:永久重定向-搜寻器和用户都被重定向到一个新的位置,该位置被认为是永久的。
  • 302:临时重定向-搜寻器和用户都被重定向到新位置,但是新页面被视为临时页面。
  • 404:找不到-所需的页面丢失。
  • 503:服务不可用-服务器当前无法处理该请求。

首先查看所有重定向(301和302)。 Google坚持在使用任何30x重定向时都不会稀释PageRank,这意味着301和302重定向都应保留PageRank值。 但是,许多SEO对此主张表示怀疑。 目前,最佳实践是确保您正在全面使用301重定向,除非重定向确实是临时的。

接下来,可以通过几种方式解决404错误。 您可以告诉服务器将404ing页面重定向到其他页面。 在某些情况下,如果您删除的页面仍然对搜索者有价值,则您甚至可能希望还原它们。 虽然404错误不会造成任何无法弥补的伤害,但它们会使您的网站显得马虎。 我建议至少每月检查一次-如果您有大型网站,则每周一次。

503错误表示服务器已关闭。 这些通常在停机期间使用,并让搜索引擎知道很快就会回来。

除了错误之外,您还需要密切注意XML Sitemap。 这为搜索引擎爬网程序提供了一种轻松查找网站上所有页面的路径。 搜索引擎期望Sitemaps具有某种格式。 如果您的要求不符合要求,则可能会导致无**确处理的风险。 如果站点地图中列出的页面没有出现在爬网中,则可能意味着您需要在网站体系结构中为其找到位置,并确保它们至少具有一个内部反向链接。

最后,定期监察网站的性能是必须的。 请记住,这些天用户的关注时间很短。 信不信由你,这些天的平均时间约为八秒钟。 搜索引擎搜寻器也不以其耐心而闻名。 他们分配给每个网站的时间有限。 您的网站加载速度越快,将对其进行索引的次数就越多。 Pingdom是用于测试加载速度的简化工具。

它将为您提供页面上所有内容的逐项清单以及它们如何影响您的加载时间。 从那里开始,它提供有关如何减少障碍和瓶颈以提高整体性能的建议。

可访问性是网站审核的有影响力的部分之一。 不花大力气优化该领域可能会破坏您的排名。

3.忽略页面排名因素

就页面排名因素而言,您的网站上有很多东西需要在显微镜下观察。

对于初学者来说,也许最重要的是,页面的内容(及其标题)使您的网站值得其在搜索结果中的位置。 最终,这是人们访问并停留在您的平台上的原因。 从根本上讲,创建一流的真实内容是您的头等大事。

从SEO的角度来看,有许多事情要牢记。

  • 材料是否充实? 根据经验,建议每页内容至少包含300个单词。
  • 您的内容是否为读者提供了价值? 这是一个灰**域。 基本上,您需要确保您的材料写得好,相关且引人注目。
  • 图像是否经过优化? 您的网站应提供图像元数据,以便搜索引擎可以将它们纳入您的排名。
  • 您是否使用有针对性的关键字? 做您的研究,并确定用户正在搜索与您的行业有关的术语。
  • 内容可读吗? 使用Gunning Fog Index之类的工具来衡量普通读者对文本的理解程度。
  • 搜索引擎可以处理吗? 确保内容不会被复杂的图像,过多的JavaScript或Flash所困扰。

在浏览网站的消息时,您将要密切注意以下三大罪魁祸首。

  1. 内容重复。这不会给您带来任何好处,并且可能会使搜索引擎爬网程序感到困惑,因为它们将不得不确定要对内容的哪个版本进行排名。 您可以在网站爬网期间查明这些片段。 或诸如Copyscape之类的工具可识别网络上的重复项。
  2. 信息架构。 这定义了您的网站准确呈现其消息的方式。 它应该有一个目的,并利用大量的目标关键字。
  3. 关键字食人。 这种严峻的隐喻描述了您有多个页面针对完全相同的关键字的情况。 这将给用户和搜索引擎造成混乱。 通过为网站上的所有内容创建关键字索引来避免这种情况。

接下来,您需要检查URL。 一般来说,它们的长度应小于115个字符。 另外,URL简要描述其链接到的内容也很重要。 URL结构有许多考虑的实践。 花点时间和他们在一起。

链接是另一个需要考虑的因素。 这些就是将您的页面连接到其他站点的原因。 简而言之,就像背书一样。 在审核过程中,您将需要确保这些链接都可以到达值得信赖的信誉良好的站点。 我使用的策略是在Twitter上查找网站。 如果该帐户已通过验证,则通常是合格来源。

除了决定搜索排名之外,访问者在访问您的网站时还会与之互动。 因此,从长远来看,忽略其中的一部分可能会非常昂贵。

4.忽略页面外排名因素

即使这些因素来自外部来源,它们对于您的排名也至关重要,因此不应忽视或放之四海而皆准。

首先,查看您的整体知名度。 您的网站获得多少流量? 为此,您将需要在分析中保留常规标签。 如果您使用Google Analytics(分析),请确保您不会随时间流失大量的自然流量。

现在,进行一些竞争性分析,看看您的网站在类似平台上的受欢迎程度如何。 Quantcast是一个很好的工具,可用来衡量您的受众群体和针对竞争对手的整体唯一性。

您还可以使用mozRank等指标通过从其他网站收到的反向链接数来衡量网站的受欢迎程度。

谷歌的座右铭曾经是“不要作恶”。 考虑到这一点,您可以想象确定排名时的可信度有多重要。 在查看链接到您网站的网站时,请查找垃圾邮件或恶意软件之类的不可信行为。 识别这些事物时要寻找的一些危险信号是:

  • 关键字填充-内容中关键字的数量不自然。
  • 伪装—向搜索引擎和用户显示不同版本的网站。
  • 隐藏的文本-向搜索引擎呈现用户不可见的内容。

如果您从网站获取链接时遇到上述任何问题,请使用Google Search Console拒绝这些入站链接。

最后但并非最不重要的一点是,某些人认为社会参与在排名中起间接作用。 SEO日益变得社交化。 每个平台都有其自己的社交货币形式(喜欢,转发,分享等)。 在评估社交互动时,您需要注意您积累这些形式的货币的程度。 请记住,全球有超过20亿的社交媒体用户。 这种趋势不会很快发生。 因此,建立社会影响力不再是品牌的选择。

最后的想法

搜索引擎臭名昭著的是在没有警告的情况下更改和更新其算法。 因此,必须紧跟潮流。 就个人而言,我习惯在早上喝咖啡的30分钟左右内掌握最新的SEO新闻。 掌握这种不断发展的格局是避免错误并掌握宝贵技巧的最佳方法之一。


本文中表达的观点是来宾作者的观点,不一定是Search Engine Land。 工作人员作者在此处列出。

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。如若转载,请注明出处:http://www.botadmin.cn/sylc/9782.html