页面加载时间和爬网预算排名将是2020年最重要的SEO指标
Google可以在网站的内容,信息的透明性以及技术质量方面对网站所有者施加自己的规则。 因此,我现在最关注的技术方面(并将在明年进行)是在我称为PLT(页面加载时间)的不同加载时间情况下的网站速度。
到第一个字节的时间(TTFB)是从发送请求到发送信息的第一个字节为止的服务器响应时间。 它从服务器(数据库连接,信息处理和数据缓存系统以及DNS服务器性能)的角度演示了网站的工作方式。 您如何检查TTFB? 最简单的方法是使用以下工具之一:
- Chrome浏览器中的开发者工具
- WebPageTest
- 字节检查
解释结果
TTFB时间低于100ms是令人印象深刻的结果。 在Google的建议中,TTFB时间不应超过200毫秒。 通常认为计算得出的接收第一个字节的可接受服务器响应时间不得超过0.5s。 超过此值,服务器上可能存在问题,因此更正它们将改善网站的索引编制。
改善TTFB
1.通过改善负责消耗资源的数据库查询的代码片段(例如,多级联接)或加载处理器的繁重代码(例如,生成动态的复杂树数据结构,例如类别结构或在不使用缓存机制的情况下,在显示视图之前准备缩略图)。
2.使用内容传送网络(CDN)。 这是在遍布全球的服务器网络中使用的,这些服务器网络提供了CSS,JS文件和来自服务器的内容,这些服务器位于离想要查看给定网站的人最近的服务器上。 借助CDN,资源不会像传统服务器那样排在队列中,并且几乎可以并行下载。 CDN的实施可将TTFB时间减少多达50%。
3.如果使用共享主机,请考虑迁移到具有保证资源(例如内存或处理器能力)的VPS服务器或专用服务器。 这样可以确保只有您才能影响计算机(或在VPS情况下为虚拟机)的操作。 如果工作缓慢,则问题可能出在您身边,而不一定是服务器。
4.考虑实现缓存系统。 对于WordPress,您可以选择许多插件,这些插件的实现没有问题,效果会立即显现。 WP Super Cache和W3 Total Cache是我最常使用的插件。 如果使用专用解决方案,请考虑使用Redis,Memcache或APC实现,这些实现允许您将数据转储到文件或将其存储在RAM中,这可以提高效率。
5.启用HTTP / 2协议,或者如果您的服务器已经具有HTTP / 3功能,则启用它。 速度方面的优势令人印象深刻。
DOM处理时间
DOM处理时间是下载所有HTML代码的时间。 代码越有效,加载它所需的资源就越少。 在搜索引擎索引中存储网站所需的资源较少,可提高速度和用户满意度。
我乐于通过消除冗余HTML代码并将网站上显示的元素的生成从HTML代码转换为CSS来减少HTML代码量。 例如,我使用伪类:before和:after,以及从HTML中删除SVG格式的图像(那些图像存储在<svg> </ svg>中)。
页面渲染时间
网站的页面呈现时间受下载图形资源以及下载和执行JS代码的影响。
资源的压缩和压缩是加快网站呈现时间的基本操作。 异步照片加载,HTML压缩,JavaScript代码从HTML(功能主体直接包含在HTML中)迁移到根据需要异步加载的外部JavaScript文件。 这些活动表明,优良作法是仅加载当前子页面上所需的Javascript或CSS代码。 例如,如果用户在产品页面上,则浏览器不必加载将在购物篮或已登录用户的面板中使用的JavaScript代码。
需要加载的资源越多,Google Bot必须花费更多的时间来处理有关网站内容的信息下载。 如果我们假设每个网站都具有最大的Google Bot访问次数/最长访问时间(以对内容建立索引为结尾),那么我们在这段时间内可以发送到搜索引擎索引的页面越少。
搜寻预算等级
最后一个问题需要更多关注。 抓取预算会严重影响Google Bot对网站内容进行索引的方式。 为了了解其工作原理以及搜寻预算的含义,我使用了一种称为CBR(搜寻预算排名)的概念来评估网站结构的透明度。
如果Google Bot在网站上找到相同内容的重复版本,则我们的CBR会降低。 我们通过两种方式知道这一点:
1. Google Search Console
通过分析和评估与Google Search Console中的页面索引编制相关的问题,我们将能够在“状态”>“已排除”标签中的以下部分中观察到越来越多的问题:
- 网站已扫描但尚未编入索引
- 网站包含重定向
- 重复,Google选择了与用户不同的规范页面
- 重复,用户尚未标记规范页面
2.访问日志
这是有关Google Bot如何抓取我们网站的最佳信息来源。 根据日志数据,我们可以了解网站的结构,以识别内部链接和导航元素造成的体系结构中的薄弱环节。
影响索引问题的最常见编程错误包括:
1.不良的数据过滤和排序机制,导致创建了数千个重复的子页面
2.“快速查看”链接在用户版本中显示该层上带有数据的弹出窗口,并创建一个包含重复产品信息的网站。
3.分页永无止境。
4.网站上的链接,这些链接重定向到新URL上的资源。
5.阻止机器人访问经常重复的资源。
6.典型的404错误。
如果我们网站的“混乱”现象增加,我们的CBR就会降低,这意味着Google Bot不太愿意访问我们的网站(频率较低),对内容的索引越来越少,并且在错误解释正确版本的资源的情况下,删除先前在搜索引擎索引中的页面。
经典的抓取预算概念让我们知道了Google Bot每天平均抓取的页面数(根据日志文件)与网站上的总页面数之比。 这是两种情况:
1.您的网站有1,000个页面,Google Bot每天抓取200个页面。 它告诉你什么? 是阴性还是阳性结果?
2.您的网站有1000个页面,而Google Bot可以抓取1000个页面。 您应该快乐还是担心?
如果不使用其他质量指标来扩展爬网预算的概念,那么信息就没有那么有用。 第二种情况可能是页面优化良好,或者表明存在巨大问题。 假设Google Bot只抓取您要抓取的50个页面,其余(950个页面)是垃圾/重复/内容稀疏的页面。 然后我们有一个问题。
我已经定义了“抓取预算排名”指标。 像“页面排名”一样,页面排名越高,传出链接越强大。 CBR越大,我们遇到的问题越少。
CBR数值解释可以如下: