Влияет ли скорость сайта на рейтинг в поиске? Или что такое Core Web Vitals

Занимаясь SEO уже около 8 лет, не возможно вспомнить, когда скорость сайта не была одной из основных вещей для оптимизации. Принимая во внимание множество фактов, указывающих на то, что скорость страницы является критическим фактором ранжирования, многие были убеждены, что медленные сайты не могут конкурировать с быстрыми при прочих равных условиях. Несмотря на все убеждения в том, что скорость страниц – это важнейший фактор, когда бы я ни говорил с разработчиком на тему, что их сайт работает медленно, я часто получал классическое «но какой ROI в этом сложном проекте?»

Несмотря на то, что в один прекрасный день стало очевидно, что скорость сайта чрезвычайно важна, поскольку Amazon приравнивает замедление 1 секунды к потерянному доходу в 1,6 млрд. долл. США. И хотя нет никаких сомнений в том, что более быстрый сайт приводит к увеличению прибыли, есть ли прямое ранжирование от повышения скорости сайта?

Page Speed как фактор ранжирования

Чтобы понять что так Page Speed и как этот показатель влияет на рейтинг в ранжировании, надо сначала проанализировать информацию от самого Google. В июле 2018 года поисковой гигант Google выпустила обновление связанное со скоростью страницы, и большинство из нас вздохнули с облегчением. Влияние этого обновления было минимальным, поскольку оно наказывало самые медленные сайты, а не присваивало какое-то конкретное значения сайтам в зависимости от их скорости. После всей этой суеты, связанной с мобильными сетями, и ускорения поиска, пострадали только самые худшие из них.

Понимая это может показаться что достижения минимального порога должно быть достаточно, чтобы максимизировать потенциал SEO. К сожалению, это не верно, так как необходимо учитывать и множество других факторов. Например, страница, которая кажется достаточно быстрой для взаимодействия с пользователем, может иметь медленные ресурсы, которые не отображаются сканером. Таким образом, статья, которая может содержать видео и текст, может интерпретироваться только как текст. Хотя это не кажется большой проблемой, поскольку Google пока не может эффективно интерпретировать видео в масштабе, есть результаты поиска, в которых видео оценивается выше в зависимости от намерений пользователя. Кроме того, если видео не размещено в другом месте, например на YouTube, оно не будет отображаться в результатах поиска, отфильтрованных по содержанию видео.

Есть 3 аспекта скорости сайта, которые будут последовательно влиять на медленный сайт. В этой статье будет описано как они будут влиять на SEO и почему вы должны обратить внимание на скорость.

1. Core Web Vitals

5 мая 2020 года Google представила свои основные инструменты оценки качества сайта в своем блоге Chromium. Как они выразились, эта документация поможет решить многие проблемы неоднозначности, возникающие из-за отчетов, в которых не определены приоритеты, касающиеся пользовательского опыта. По их словам, Core Web Vitals будет «единым руководством по качественным сигналам, которые, как мы считаем, необходимы для обеспечения отличного пользовательского опыта в Интернете».

«Core Web Vitals» - конгломерат UX метрик в Google. Применимы ко всем веб-страницам.

«Core Web Vitals» – конгломерат UX метрик в Google. Применимы ко всем веб-страницам.

По заявлениям Google, метрики будут запущены не ранее 2021 года. У владельцев сайтов есть как минимум пол года на оптимизацию под грядущий апдейт.

Упомянутыми тремя основными показателями были Largest Contentful Paint (LCP), First Input Delay (FID), and Cumulative Layout Shift (CLS).

  1. LCP измеряет время загрузки основного контента на странице
  2. FID – это время, необходимое пользователю для начала взаимодействия со страницей.
  3. CLS будет измерять неожиданные сдвиги в макете страницы.

 

Core Web VItals

Core Web VItals

Largest Contentful Paint (LCP)

Метрика измеряет производительность загрузки. Для предоставления хорошего пользовательского опыта LCP должна составлять до 2,5 сек от начала загрузки страницы. Распространенные причины слабой производительность загрузки:

  • Медленное время отклика сервера
  • Рендер-блокировка JavaScript и CSS
  • Медленное время загрузки ресурсов
  • Отрисовка на стороне клиента

First Input Delay (FID)

FID измеряет время с момента первого взаимодействия пользователя со страницей к тому моменту, когда браузер действительно способен реагировать на это взаимодействие.

Cumulative Layout Shift (CLS)

Метрика измеряет визуальную стабильность. Тут важно, чтобы элементы не появлялись неожиданно после того, как страница уже отрисована.

Неожиданное перемещение содержимого страницы обычно происходит из-за загрузки ресурсов асинхронно или DOM элементы динамически добавляются на страницу поверх существующих. Причинами могут быть:

  • Изображение или видео с неизвестными размерами;
  • Шрифт который отображает больше или меньше, чем его резервный вариант;
  • Стороннее объявление или виджет, который динамически изменяет размер самого себя.

CLS измеряет общую сумму всех баллов движения макета для каждого случая неожиданного сдвига элементов, который происходит в течение всего цикла жизни страницы. Сдвиг верстки происходит каждый раз, когда видимый элемент меняет свое положение с одного кадра к следующему.
Пример плохого пользовательского опыта, связанного с CLS:

В своем Twitter Ilya Grigorik заявил, что основные веб-виталы будут добавлены в отчет о скорости Google Search Console, PageSpeed Insights, Chrome DevTools и Lighthouse. John Mueller позже упомянул, что результаты будут также отображаться в CrUX, webpagetest.org и других. Вы сможете находить свои основные показатели Core Web Vitals через любой из упомянутых инструментов довольно скоро. Google Search Console и PageSpeed Insights уже интегрировали эти показатели на момент написания этой статьи. Кроме того, была выпущена библиотека JavaScript с открытым исходным кодом, чтобы помочь разработчикам собирать пользовательские метрики в своей аналитике, а также информировать их о новых критических метриках в Core Web Vitals.

Дополнения “Core Web” в PageSpeed Insights

Дополнения “Core Web”  Google Search Console

 

Каким бы проницательным ни было первоначальное объявление от 5 мая, оно было лишь верхушкой айсберга в отношении того, как метрики скорости сайта изменят SEO. Основу информации можно найти на https://web.dev/vitals/ и на видео с конференции #PerfMatters на LCP и CLS (рекомендация от John Mueller через Twitter). Оба видео стоит посмотреть, а документацию – прочитать.

В частности, в документации по web.dev приведены рекомендации по оптимизации загрузки, интерактивности и устойчивости в визуальной части. Например, идея о сверке данных полей (с использованием контролируемой среды с хорошим соединением и т.д.) это хорошо разъясняется. Кроме того, для каждой метрики заданы диапазоны для “хорошего”, “нуждающегося в улучшении” и “низкой производительности”, при этом предлагается обратить внимание на 75-й пункт результатов загрузки страницы, разделенных по мобильным и настольным устройствам.

 

Но, все-же это не отвечает на вопрос “повлияет ли это на рейтинг?”. Ведь даже зная все это о Core Web Vitals, остается вопрос: «Стоит ли это времени и затрат?» Чтобы окончательно не было сомнений, просто взгляните на пост от 28 мая в Google Webmaster Central Blog, в котором утверждается, что показатели Core Web Vital станут фактором ранжирования уже в 2021 году.

Поэтому большая вероятность что на рейтинг в поиске действительно будет влиять скорость сайта (а именно, LCP, CLS и FID), но необходимо принять во внимание несколько предостережений. Во-первых, Google пообещал уведомить за 6 месяцев до начала этого обновления. Это дает возможность отложить пока любые работы по улучшению производительности сайта. Тем не менее, поскольку эти обновления необходимо будет сделать, их приоритезация и предоставление пользователям преимуществ от их использования все равно стоит. Кроме того, следующее сообщение из вышеупомянутого поста подтверждает это.

Несмотря на то, что все показатели взаимодействия со страницами важны, мы будем отдавать приоритет страницам с релевантной и качественной информацией в целом, даже если некоторые показатели страницы находятся на низком уровне. Хорошие технические показатели страниц не отменяет важности наличие релевантного контента. Однако при сравнении страниц с одинаковым содержимым, оценка пользовательского взаимодействия (page experience) страниц становится более важным для рейтинга в поиске.

Для большинства оптимизаторов это звучит как некоторые из предыдущих обновлений, которые изначально должны были стать факторами ранжирования, но в итоге оказались незначительным преимуществом, при остальных равных между 2 страницами. Хотя есть веские причины для обеспечения безопасности и перехода вашего сайта на HTTPS, Google объявил этот параметр как «фактора ранжирования» для тех, кому не достаточно было мотивации перейти на защищенный протокол.

Но если все еще есть неуверенность в том что показатели скорости сайта являются главным приоритетом, есть еще две причины для вас ниже.

Итого

Базовые Core Web Vitals станут фактором ранжирования в 2021 году. Параметр Page Speed для оптимизатора должен быть важным фактором в SEO стратегии уже сегодня, чтоб быть готовым к обновлениям алгоритмов в следующем году. Проверьте эффективность вашего сайта в отношении LCP, CLS и FID, прежде чем эти показатели станут официальными факторами ранжирования в 2021 году.

Эталонные показатели метрик

  • Largest Contentful Paint (LCP): 2.5 секунд
  • First Input Delay (FID): 100 миллисекунд
  • Cumulative Layout Shift (CLS): менее 0.1

Чем проверять

Проверить любую страницу сайта на все три метрики можно с помощью официального расширения для Google Chrome:

Все инструменты, в которых можно оценить метрики

2. Crawl Budget

Crawl Budget – это ресурс количества страниц, которые робот Googlebot сканирует и индексирует на веб-сайте в течение определенного периода времени.

Crawl Budget – это популярный термин в SEO, который многие используют поверхностно. Хотя некоторые зацикливались на этом в течение последних нескольких лет, концепция ресурса обхода не может быть приоритетом для каждого сайта. По словам Джона Мюллера, небольшие сайты Googlebot может просматривать ежедневно, страницу за страницей без лишних хлопот, и оптимизация ресурса сканирования для такого сайта просто не выгодна.

IMO

 

Тем не менее, если у вас есть возможность оптимизировать ресурс и обеспечить правильное сканирование, то стоит сделать. Даже многомиллионный URL-сайт может извлечь выгоду из оптимизированного ресурса сканирования, если он может переходить от сканирования важных страниц ежемесячно к еженедельно.

Так как скорость страницы связана с ресурсом сканирования?

Если вы занимались SEO достаточно долго, то можете помнить отчеты Crawl Stats в GSC, и как эти 3 графика оказались связанными. А именно, если вы видели “шипы” на страницах, сканируемых за день, они часто совпадали с сокращением времени, затрачиваемого на загрузку страницы. Googlebot может подумать о сканировании, которое заключается в распределении ресурсов (загружаемых килобайт в день), которые обычно не отклоняются. У вас не будет дней, когда сканирование не происходило, и не будет повторного сканирования всего вашего сайта, если не произойдет нечто радикальное, например, миграция. Поскольку этот ресурс относительно статичен, сокращение времени загрузки ваших страниц приводит к резкому увеличению количества страниц, которые может обрабатывать робот Googlebot, и наоборот.

Google довольно прозрачно говорит об увеличении числа параллельных подключений к сайту по мере повышения скорости отклика сайта. Если говорить проще, то если ваш сайт сможет справиться с нагрузкой дополнительного сканирования, Google будет сканировать больше страниц. Хотя термин «добропорядочный гражданин Интернета» дает нам понять, что Google пытается не положить ваш сайт, пытаясь его отсканировать, тем более, что время обхода буквально стоит денег. Если робот Googlebot тратит слишком много времени на сканирование вашего сайта с постоянными проблемами на сервере, он может тратить меньше времени на сканирование других сайтов. Поэтому, если вы не находитесь в такой маленькой нише, что у пользователей нет иного выбора, кроме как перейти на ваш сайт (например государственные ресурсы), скорость страницы уже является для вас косвенным фактором ранжирования.

Итого

Скорость сканирования вашего сайта ботом Google, скорее всего, сразу же улучшится, если скорость сайта станет выше и даст преимущество для сайтов с миллионами страниц.

3. Статистика вовлечения пользователей

Третья и, пожалуй, самая спорная причина, по которой скорость вашего сайта уже является фактором ранжирования, – это User Engagement (вовлеченность пользователей). Проще говоря, вовлечение пользователя означает, как часто и как долго пользователь взаимодействует с вашим сайтом, приложением или другим продуктом. Вы можете относиться скептически к этому, потому что многие члены команды Google неоднократно опровергали идею о том, что такие вещи, как клики, показатель отказов и время задержки, используются для ранжирования. Тем не менее, доказательства говорят об обратном, несмотря на то, что говорит Gary Ilyes.

Вы можете игнорировать исследования, показывающие, что сайт в поисковой выдаче может сместиться в позиции в зависимости от неудовлетворительного уровня кликабельности (CTR). Но, в итоге, это еще одна метрика, которая может увеличивать вашу прибыль, независимо от того является ли это фактором ранжирования или нет. Аналогичным образом, анализ показателей отказов показывает, что существует корреляция между вовлеченностью пользователей и органическим рейтингом. Конечно, корреляция не означает причинно-следственную связь, и не всегда причиной является именно показатель отказов, и вовлеченность пользователей может влиять как на рейтинг, так и на показатель отказов.

Несмотря на то, что вы можете не рассматривать статистику вовлеченности пользователей в качестве инструмента для оптимизации, присмотритесь в (ближайшее) будущее органического поиска. Поскольку основными факторами ранжирования постоянно манипулирует любой, кто знает их, конечная цель Google состоит в том, чтобы как можно больше полагаться на то, что обеспечивает оптимальный пользовательский опыт, и как можно меньше на то, что можно «оптимизировать» с помощью манипуляций специалистом. Если бы ссылки были не единственным способом показать лучшие результаты, то Google, вероятно, попытался бы обойтись и без них (они проверяли это раньше и получали не лучшие результаты).

Итого

Хотя показатели вовлеченности пользователей могут сейчас оказывать косвенное влияние на эффективность SEO, в настоящее время они не являются официальным фактором прямого ранжирования. Увеличив скорость своего сайта уже сейчас, и тем самым улучшив метрики показателей отказов, время задержки и количество страниц / сеансов, вы сможете повлиять на будущий рейтинг вашего сайта в поиске.

Какой вывод из этого можно сделать

Хотя скорость сайта в настоящее время не является прямым фактором ранжирования, который имеет большой вес, он все же способствует множеству факторов, которые могут повлиять на ваш рейтинг, если ваш сайт не слишком медленный. Хотя показатели вовлеченности пользователей не могут быть фактором ранжирования, бюджет сканирования можно и нужно улучшить с помощью более быстрого сайта. И наоборот, грядущая интеграция Google Core Web Vitals в их алгоритм в 2021 году сделает скорость сайта прямым фактором ранжирования. Остается только неясным, какой вес фактора “Page speed” будет дан по сравнению с другими факторами, такими как ссылки и контент, которые несомненно, тоже повлияют на вашу прибыль. Поэтому лучше всего уже сейчас ознакомиться с документацией по Core Web Vitals (включая видео и рецензии, объясняющие FID, CLS и LCP) и запланировать оптимизацию вашего сайта с учетом этого. Хоть и Google пообещал 6-месячное уведомление перед запуском этого обновления в следующем году, преимущества оптимизированной скорости сайта можно получить быстрее, если вы начнете действовать прямо сейчас.

Автор: Виталий


Спасибо за отзыв
Рейтинг: 4.9 из 5 Голосов: 402

Оставить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Перезвонить?

 

×
Оставить заявку

 

×