Содержание
Падение на 20-30 пунктов в Яндекс. Продолжение истории с НКС, про которую уже много тут писали.
В этой статье ты найдешь информацию о массовом падении сайтов весной 2021 года и как спасать ситуацию. История, кстати массовая. И лекарство уже есть.
С каждым днем все больше и больше сайтов, излеченных этим методом и вот как это выглядит, чтобы не быть голословным (скрины в слайдере ниже можно листать влево-вправо):
Некоторые из вас даже могли видеть кейс в блоге ТОПвизора, написанный одним из участников моего ЗSС
Предыстория:
Начнем с предыстории:
Яндекс затягивает одну и ту же гайку на протяжении последних четырех лет.
Эта гайка связана, в сути своей, с дорвейством и бесконечной генерацией искусственной семантики в рамках сайта.
Началось все с SEO фильтра и искусственной семантики в Директ.
Виток 1: SEO фильтр и искусственная семантика
О да, в свое время SEO фильтр работал божественно)) И, конечно же, сеошники и Директологи начали этим злоупотреблять.
И гайку затянули. И затянули очень серьезно и жестко. Теперь раскрытым SEO фильтром, перемножающим все на все, мы просто убивали карму домена под ноль, без возможности реабилитации (только переклейка домена помогает)
Далее правильные сеошники начали собирать самую полную, качественную семантику и внедрять на сайт, но они злоупотребляли тем тезисом, что уникальность ни в рамках интернета, ни в рамках сайта особой роли не играла
Виток 2: уникальность соседних страниц
И гайку вновь закрутили! И это привело к появлению в Мае 2020 года логики НКС в Яндекс.
Тут все просто – это проблема неуникальных соседних страниц в рамках сайта.
Далее мы начали следить за уникальностью страниц друг относительно друга и качеством их наполнения.
Виток 3: качество семантики в рамках сайта
Но гайку вновь затянули! В Марте-Апреле 2021 гайку нам затянули еще туже. И те сайты, которые имели на себе большое число страниц, созданных под нулевую и даже околонулевую семантику начали тонуть.
Тут лекарство так же оказалось простым – необходимо пересобрать семантику для сайта, склеив тоненькие и слабенькие веточки с мамками, либо закрыв от индексации.
Пример:
Это так же довольно массовая ситуация с сайтами на вордпресс, где картинки попадают в индекс поиска. Особенность сайтов на вордпресс в том, что под картинку создается отдельный URL, который состоит только из этой картинки. И таких страниц могут быть тысячи. Естественно, что никакой семантики под такими страницами нет. И сайты на вордпресс, где этот каталог картинок попал в индекс массово и дружно валятся в бездну. После закрытия от индексации этого каталога начинается рост. Только в последние пару месяцев на моей памяти вылечили так 8 сайтов на Вордпресс.
Алгоритм работы:
Ниже ты найдешь пошаговый алгоритм работы по спасению сайта, просевшего в Яндекс по всем направлениям на 20-30 пунктов:
В общем и целом, борьба со слабыми страницами имеет следующий алгоритм:
- Выгружаем некачественные страницы из Вебмастера и технический анализ Wizard.Sape( для продвинутых так же используем BatchUniqueChecker)
- Уникализируем их друг относительно друга (уникализировать можно даже при помощи небольших текстов, состоящих из связанных слов).
Это вопрос к наполненности страниц — на сайте не должно быть пустых или полупустых страниц, которые уходят в индекс. Пустые страницы вполне себе могут существовать и на них даже можно лить рекламу при желании, но они не должны попадать в индекс поисковой системы.
- Выгружаем все страницы, которые есть в индексе через Вебмастер и ищем среди них те, что в индекс попасть не должны были (например — страницы пагинации или страницы печати или каталог картинок) – исключаем их
- Выгружаем из админки список всех страниц сайта с URL и H1
H1 должен являть собой маркер – основной запрос кластера (если это не так – подбираем маркеры для каждой страницы)
- Снимаем частотность по маркерам и там, где нет частотности – склеиваем эту страницу с надстраницей или просто жестко закрываем от индексации
- Выгружаем из Метрики страницы сайта, по которым были переходы и накладываем этот список на полный список страниц. Таким образом мы находим документы, которые как бы есть и на них даже есть семантика, но нет переходов из поиска. Детально изучаем эти страницы, ищем проблемы и решаем. Либо же просто закрываем от индексации.
*Алгоритм до боли похож на историю с Гугл, которая была описана в моем паблике 2 года назад — помните? Гугл Фред?!
Как итог – на сайте не должно остаться страниц, неуникальных друг относительно друга, недостаточно наполненных и страниц со слабой семантикой, либо без семантики и взрослых страниц без трафика.
Для товаров интернет-магазинов тут все несколько сложнее, сегодня вдаваться в подробности не буду, поэтому товары можете не трогать.
КЛЮЧЕВОЙ МОМЕНТ!
Пока ты не решишь проблемы с качеством страниц и семантики в рамках сайта — любые другие манипуляции совершенно бессмысленны, сайт не будет отзываться ни на какие внедрения, будто их и ни делали, а большинство позиций просядет на -20-30 пунктов
Оставь свой комментарий о статье
Комментарии к записи:
да уж, бывает и такой фильтр