13 практических SEO-фишек от 8P: мнение и разбор

15 июля 2017 года прошла масштабная и одна из самых мощных IT-конференций в Украине – 8P от организатора Netpeak, которая проходит ежегодно в городе Одесса. В завершении конференции был не стандартный, но очень свежий формат общения: по каждому из направлений были собраны все приглашенные спикеры в “круглый стол” и обсуждались не стандартные решение проблем и лайф-хаки. Каждый спикер должен был выдать минимум 1 SEO-фишку, а зал голосовал на сколько она “свежая” и на сколько применима для каждого.

На мое удивление, для большинства многие пункты были в новинку, хотя многих таковыми не назовешь, а учитывая результаты голосования в общем зале, практически 90% людей были на конференциях не в первые.

И так, я решил пройтись по-пунктно и высказать мнение о полезности или “не полезности” каждого из них.

1. Несколько главных страниц

В этом пункте 2 фишки.

Первая: предлагается делать несколько главных страниц в виде поддоменов. Учитывая, что главная страница имеет больше всего приоритет перед остальными, то фишка имеет смысл существовать.

Мнение:

  1. Это работает только для некоторых тематик и типов сайта, например, когда нужно продвигать основные запросы сайта по регионам.
  2. Для этого нужно очень грамотно распределить ссылочный вес и перелинковку, что для многих уже проблема, ведь сделав не верно или нарушив существующую структуру, можно вовсе уничтожить существующий рейтинг сайта, а то и попасть в бан.
  3. Корректно проработать юзабилити, с переключением городов, с полезностью и уникальностью контент для каждого поддомена, а это очень точное ТЗ и не маленькие затраты на доработку программистам, а если это стандартный движок сайта, то такой допил будет проблематичен, а соответственно еще не все возьмутся за доработку.
  4. На многих сайтах уже установлен шифрованный протокол доступа через https (SSL) и многие ставят бесплатные протоколы на 3 месяца, которые не позволяют работать с поддоменами. Но даже если изначально был установлен платный, но без защиты поддоменов, то придется покупать новый более дорогой сертификат и заново устанавливать, что несет дополнительные затраты.
  5. Важно все четко настроить в консолях вебмастеров и не забыть о проработке таких файлов как sitemap и robots.

Поддомены лучше использовать для лендингов параллельных услуг компании, например если магазин мебели еще занимается реставрацией мебели и планирует крутить контекст по этой услуге, пользователь всегда видит и может перейти на основной домен и увидеть реальность компании что повысит лояльность и доверие.

Также создавать поддомены для регионов в первую очередь не имеет смысла, потому что если это такие конкурентные и большие регионы, то там с огромной вероятностью есть уже свои местные магазины или сайты услуг, которые и будут выше в рейтинге и интересней самим пользователям.

Но если все-же клиент очень просит, то сделав все корректно и правильно можно действительно добиться хороших результатов.

Вторая предлагаемая фишка по этому пункту: создать несколько одинаковых главных страниц сайта, поставив canonical на основную для того чтобы можно было ссылаться несколько раз с одной страницы на свою главную, но используя разные url. Также предлагают использовать разные url в ссылках с одной страницы, используя якоря /#

Мнение:

  1. Две  главные с указанием канонической страницы имеет смысл быть, если делать например несколько хлебных крошек и ссылаться на разные главные страницы. Но как по мне – это дикое извращение.
  2. Использовать якоря в качестве разных ссылок для бота – очень спорно. Бот увидит ссылку, но он не передаст ей никакого веса, потому что уже давно умеет работать с якорями и понимает что это просто местоположение на странице.

2. Быстрая индексация новых страниц

Предлагается для быстрой индексации новых страниц “наваливать в поддон”, как сказал Дмитрий Шахов, то есть все ссылки разместить в футер на несколько дней чтоб бот их быстро увидел и проиндексировал.

Мнение:

Метод реально работает. Но на столько же, как создать отдельный sitemap для новых страниц и скормить его через консоль. После индексации, можно удалять этот sitemap (конечно, если эти ссылки есть в общем файле)

3. Ускоряем индексацию с помощью браузеров

Предлагается использовать специальные макрос расширение для браузеров, программируя их на переход по не проиндексированным ссылкам сайта, тем самым отправляя сигнал в поисковую систему о этих страницах. Для Google использовать Chrome, для Яндекса – ЯндексChrome.

Мнение:

Вообще треш!

  1. Очень сомневаюсь что отправив данные о посещение нескольких страниц всего одним браузером  поисковые системы сверят их все со своей базой индекса, и если их в базе нет, то срочно отправят бота на скан…
  2. За использование подобных макросов очень просто можно схватить серьезный бан за накрутку поведенческих. А это похуже чем тот-же бан за ссылочный переспам.

4. Секундомер с обратным отсчетом времени до понижения цены

Предлагается на карточке товара использовать возле цены счетчик обратно отсчета, после которого цена снижается. Тем самым мотивируя пользователя задержаться на страницы и улучшив показатель отказов для сайта.

Мнение:

Классная и свежая идея!

  1. Действительно может сработать, хоть это все-же и манипуляции с поведенческими, но честные.
  2. Проблема может заключаться в организации такой фишки: многие магазины сейчас работают в синхронизации с 1С и реализовать товар с двумя ценами (скидочной и обычной) очень не просто, ведь оставлять пользователя без выбора купить сразу или подождать 2 минуты для скидки было бы очень глупо – не все хотят ждать и это может отпугивать пользователей.
  3. Донести клиенту что такая доработка и трата ресурсов улучшит показатель отказов, который косвенно повлияет на общий рейтинг сайта может быть затруднительно.

5. Как обмануть Минусинск от Яндекса

Обсуждался факт, что под фильтр Минусинск не попадают сайты, которые не ставят ссылки через картинки.

Мнение:

Может быть… Мы такими черными методами никогда не пользовались, потому что работаем на перспективу, а не на временные показатели в молитвенных ожиданиях нового апдейта алгоритмов и судорожной проверки сайтов на бан.

6. Размещаем «хлебные крошки» в разных местах страницы

Предлагается делать несколько хлебных крошек на странице, а ссылку на главную в них ввести на разные страницы, используя одну через якорь и canonical.

Мнение:

Смотри 1 пункт данной статьи

7. Как победить текучку в отделе арбитража трафика

pivo

Предлагается разрешать пить пиво сотрудникам в рабочее время

Мнение-вопрос:

Не знаком с арбитражниками, они что реально такие любители пива и им так действительно не хватает его в рабочее время? :)

8. Анализируем конкурентов с помощью фейковых заказов

Предлагается отслеживать количество продаж конкурента через регулярные фейковые заказы, в которых смотреть на разницу в номерах заказа.

Мнение:

Это может сработать, если у магазина не установлена рендомная генерация этих номеров. Также этот метод может выявить только количество заказов, не обязательно оплаченных или возвращенных, и не увидеть сумму и список товаров.

9. Оптимизируем метатеги на страницах пагинации для региональной выдачи

Предлагается в страницах категорий на страницах 2,3,4… устанавливать метаданные, оптимизированные для разных регионов, тем самым распределив запросы на каждую страницу.

Мнение:

  1. Метод действительно рабочий, учитывая что для каждого региона будет своя страница
  2. Юзабилити будет очень храмать, ведь для каждой следующей страницы нужно создавать разные заголовки, упоминая в них регион и переходя на следующую страницу пользователь уже будет видеть другой заголовок.
  3. Попадая из поиска, например на 3-ю страницу по своему городу, пользователь может оказаться на странице с товарами, которые не так интересны, если сортировка по умолчанию в каталоге установлена по популярности, а также меняя эту сортировку вручную на 3й странице можно обнаружить далеко не лучший список товаров
  4. Пользователь может попасть на страницу, в которой товары будут отмечены как не в наличии, если настроен вывод таких товаров в конце каталога
  5. Сложная программная настройка для любых движков, ведь надо переписать код пагинации, да еще и скорее всего не для всех категорий. То есть настроить так чтоб некоторые категории работали с ручным заполнением метаданных, а некоторые работали по умолчанию, с автоматической генерацией метаданных, с указанием всех параметров next, prev, canonical, noindex, nofollow и т.д. для страниц пагинации

10. Используем бренд и слова «официальный сайт» в метатегах

Предлагается для сниппетов использовать слова “официальный сайт” для брендов, тем самым расширить семантику и охватить большее количество трафика.

Мнение:

  1. Можно использовать, если действительно по этому бренду нет официальных сайтов (что уже очень редко)
  2. В таком случае на сайте\странице действительно должны быть официальные контакты бренда
  3. Используя акцент на ключ “официальный сайт”, можно потерять значимость действительно релевантных запросов страницы
  4. Если человек ищет действительно официальный сайт, а попадает на страницу каталога магазина, можно вызвать негативную реакцию к магазину
  5. Есть вероятность получить письмо-недовольство от официального бренда

11. Проверяем, не насолил ли предыдущий подрядчик

В этом пункте обсуждаются разные знакомые и не очень методы закрытия страниц от индексации. Например, предыдущими специалистами “на прощание”. Например, по мимо стандартных методов запрета к индексации через файл robots.txt, тега meta-robots на странице или атрибута rel=canonical можно закрыть страницу через http-заголовок сервера, используя тега x-robots-tag http header.

zakryt-v-http-zagolovkah

teg-x-robots-tag-http-header

Мнение:

Действительно такие случаи имеют смысл быть и закрыть через страницу через http-заголовок – это очень тонко.

Мы перед началом любого проекта в любом состоянии без исключений проводим свой полный анализ и и технический аудит сайта, прогоняя через сервисы и проверяя внутренними программами, которые подобные параметры выявляет и сигнализирует. Также рекомендую использовать сервисы или скрипты для отслеживания изменения параметров или частей кода на страницах сайта с оповещением об этом на почту.

Но всем SEO специалистам хочу сказать что карма существует и ею не нужно пренебрегать, если вы обижены на клиента или хотите донести какую-то важную информацию, можно использовать строки комментариев в robots.txt, любой SEO-специалист проверяет его в первую очередь и может увидеть ваше послание.

12. Как быстро находить ошибки на сайте

Предлагается лайф-хак по отслеживанию изменения параметров страницы через Google Tag Manager. Можно установить скрипт, который будет проверять определенные параметры на страницах (через триггеры) и если сркипт обнаруживает например noindex, отправляет Url и время в таблицу Google или другую какую то БД. После чего настроить скрипт Google табиц, который проверяет по расписанию наличие содержимого ячеек и в случае наличия, отправляет на почту письмо-уведомление.

Мнение:

Метод очень полезный и интересный, особенно если к сайту есть доступ у разных людей. Иногда смена важных параметров происходила после внедрения каких-то доработок программистами.

Таким образом можно использовать бесплатную важную реализацию с уведомлением на почту. Сложность может быть в настройке скриптов GTM.

Также для отслеживания изменения таких параметров на сайте можно использовать свои скрипты проверки или сторонние сервисы, например инструмент SeRanking

13. Учим родных покупать трафик

rodnyh-pokupat-trafik

В этом пункте говорится что лучший сотрудник – это близкий родственник.

Мнение:

Что тут скажешь, это правда )) Главное держать грань между бизнесом и отношениями, а это очень сложно!

Оставить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Перезвонить?

 

×
Предварительный заказ

 

×