Содержание
Сегодня я подготовил интересный материал из личного опыта! Все, кто мог уже написали про данный фильтр, но выводы везде примерно одни и те же и не раскрывают обратную сторону картины. Все имеющиеся на данный момент статьи содержат в себе инструкцию по выходу из-под фильтра, написанную в общих словах, вида: не использовать много ключевых слов, равномерно распределить ключи по статье, писать статьи только по существу, текст должен быть написан экспертом, картинки это хорошо и т.д. Блин, ну это же сплошная вода, которая никак не раскрывает сути картины — каждый и так об этом знает, но вот нормальных инструкций я пока не видал и попробую это исправить данной статьей. Сегодня на блоге речь пойдет о ряде собственных наблюдений, описание которых не так часто можно встретить в сети, а так же мы разберем, как проверить сайт на фильтр и поговорим о методы выхода из-под санкций!
Но вначале пару стандартных слов вступления.
Предисловие
Баден-Баден — фильтр Yandex за переспам. Релиз нового алгоритма определения переоптимизированных текстов состоялся весной 2017 года. Основная гипотеза – он накладывается поисковой системой за слишком частое использование биграмм и триграмм, а также повышенную водность. Выделяют 2 основных вида – запросозависимый и полный (хостовый):
- запросозависимый Баден накладывается исключительно на ряд запросов документа
- хостовый накладывается на весь ресурс целиком, кроме витальных запросов (и то не всех), ввиду чего проект теряет практически все свои позиции.
Интересный момент, что при хостовом фильтре некоторые ВЧ запросы меняют релевантность с морды на внутреннюю страницу сайта, как при стандартном фильтре за переоптимизацию страницы.
Как показывают исследования — среднее падение позиций 7-30 пунктов!
Из личной практики наблюдений за фильтром
Среди наблюдаемых мной проектов хостовый Baden был наложен всего на один веб-сайт, несколько проектов попали под запросозависимый, а несколько показали очень необычное поведение, о чем мы и поговорим ниже.
Хостовый Баден-Баден, в моем случае был вызван автогенерацией заголовков и части текстов в одном крупном интернет-магазине, ввиду чего лечение оказалось очень простым — достаточно было переписать маски генерации, убрав все коммерческие пассажи из заголовков. Кстати, настоятельно всем советую перестать полностью использовать ключи во всех заголовках, начиная с H1.
Выйти из-под санкций совсем нетрудно, если следовать следующим простым и конкретным указаниям:
- никаких ключей в заголовках
- сокращаем все тайтлы до 70-90 символов (да, теперь длинные тайтлы это плохо)
- вода менее 60% (проверяем тут)
- доводим до минимума, а то и до нуля биграммы и триграммы (проверяем на адвего)
- title и alt картинок должны отличаться (лично я, после noname фильтра, вообще перестал писать у картинок тег title)
- никаких ошибок, совсем никаких (проверяем на орфограммке). Об этом пункте еще поговорим ниже
В описаниях по выходу из-под фильтра я часто видел предположение о том, что статьи под «Читать далее», «Подробнее» и т.д. были зафильтрованы, но судя по собственному опыту это бред — ни у одного из десятков наблюдаемых сайтов с такой штукой фильтр не был обнаружен. Скажу больше — я проводил наблюдения за явно убогими текстами, которые выжили после введения нового алгоритма и могу построить выводы от обратного, основываясь на тех факторах, которые не оказали влияния и среди них могу выделить:
- корявые словоформы
- без картинок и видео
- неуникальные
- с высокой плотностью по отдельному слову
Исходя из наблюдений, лично я могу сделать вывод о том, что наиболее важными факторами для наложения фильтра стали следующие:
- ключи в заголовках
- вода
- ключи из двух и трех слов с высокой плотностью
- ошибки
Интересные особенности алгоритма
Как и обещал выше — разберем некоторые интересные особенности из практики исследования алгоритма!
Под данный алгоритм у меня попало несколько проектов из огромного множества сайтов, к статистике которых я имею доступ. Причина проста – в статьях, которые я готовлю никогда не было основой использование всех ключей из набора и упор делался всего на 1 лидирующий ключ, а само тз делалось на основе LSI, что и позволяет всесторонне осветить тему, но были замечены другие интересные особенности и у этого блога так же.
Одна из основных особенностей – тексты, которые содержат много ошибок были заметно понижены в поисковой выдаче. Данная проблема затронула в основном информационные сайты и практически не оказала влияние на коммерческие проекты под моим наблюдением.
Чтобы размещенные на ресурсе тексты приносили максимальную пользу, необходимо предварительно определить конкурентность запросов, используемых для написания статей. А как правильно составлять мета теги для продвижения сайта читайте здесь.
Наряду с этим, заметно возросла значимость оформления основных сео тегов и заголовков.
Самое интересное – мной было замечено сильное смешивание информационных и коммерческих запросов, что позволяет некоторым информационным статьям вытаскивать на себе явно коммерческие запросы, что я сейчас очень активно тестирую на ряде проектов и по результатам отпишу в одной из следующих статей.
Еще одна интересная особенность — многие советуют скрывать текст или его часть в <noindex>, но это не панацея и недавно я в этом убедился, когда полное сокрытие текстов категорий магазина не привела к выходу из-под фильтра, а поддержка Яндекс шутливо написала, что не стоит так делать. Конечно, не стоит строить выводы на примере одного проекта, но такой пример имел место быть!
Как некоторые из вас могли заметить — я сейчас активно провожу эксперименты по текстовому ранжированию на своем блоге и кажется, что я на грани грандиозного открытия по манипуляции Яндексом, но об этом в одной из следующих статей (подписаться на обновления).
Как выйти?
Если ваш сайт попал под Баден, придется переписывать статьи — это и ежу понятно. Тут возможно несколько различных ситуаций, попробуем разобрать каждую из них. Первым делом необходимо определить какой вид фильтра у вас и в зависимости от этого действовать далее. Определить вид фильтра совсем нетрудно, ниже вы все поймете.
Если действовать оперативно, снять хостовый фильтр можно за 2 недели!
Хостовый
Как определить? Характерная особенность — при наложении хостового фильтра вы получаете уведомление о нем в Яндекс Вебмастер, так что не ошибетесь!
Если наполнение вашего сайта, его заголовки и часть статей делаются автоматом по маске — вам повезло! Пол часа работы + ускорение индексации и фильтр будет снят, во всех остальных случаях предстоит тяжелая работа. Некоторые советуют на время правок закрыть все статьи в noindex, но как я описал в прошлой главе это не всегда помогает. В любом случае, будем идти от простого к сложному!
Первым делом следует попробовать все-таки скрыть статьи в noindex. Если у вас сайт на CMS, пусть даже и самописной, это можно сделать за 5 минут!
Достаточно внести правки в шаблоны генерации основных страниц, для интернет-магазина это будут шаблоны:
- категория
- товар
- статья
В моем случае данный подход не помог, но раз люди повсеместно пишут об этом, грех не попробовать!
Следующим шагом следует поправить те элементы, которые можно поправить максимально быстро, а именно Title и H1, т.к. в большинстве CMS они генерятся автоматом на основе определенных правил и их можно поменять сразу все за пару часов неспешной работы. Как писал выше, Тайтл делаем до 90 символов, а из H1 выносим все ключи, которые там есть. H1 и тайтл должны отличаться друг от друга, это еще одно из правил текстовой оптимизации сегодня!
Описанные выше манипуляции легко делаются за один день и сразу же стоит написать в поддержку Яндекс о результатах работы над исправлением нарушений их регламента, но фильтр могут и не снять.
В таком случае в бой идет тяжелая артиллерия и мы просто удалим все тексты с категорий и статей. Правда, стоит их заранее скопировать, т.к. они нам еще пригодятся!
В случае того же интернет-магазина быстро удалить статьи разом со всего сайта можно вырезав код вывода статей из шаблона базовых страниц (список страниц привел выше) это так же не более пяти минут работы!
Уже после таких манипуляций фильтр точно снимут, без вариантов! Но ждать придется до месяца.
Для ускорения, выгружаем весь список категорий сайта, либо вообще все URL сайта (Xenu вам в помощь либо карта сайта (sitemap.xml)). И добавляем этот список в сервис getbot.
Getbot позволит сократить срок выхода до 2х недель, по окончанию которых трафик из поиска заметно вырастет, несмотря даже на то, что у сайта больше нет текстов;)
Следующий этап — правка скопированных ранее статей.
Тут все просто, не будем изобретать велосипед и просто отдадим тексты на корректировку рерайтерам, чтобы они соответствовали требованиям.
Есть и более тернистый путь — пересобрать семантику и написать тексты заново по медиане ТОП, но я бы вам советовал сделать это третьим этапом, т.к. постепенный подход позволит быстрее вернуть упущенный трафик, если же вы сразу начнете писать новые статьи, то окончания данного процесса можно ждать долго. Поэтому алгоритм должен быть именно таким, как указано выше: noindex и теги -> проверка, удаление текстов и ускорение индексации, правка старых текстов, подготовка новых текстов!
Запросозависимый
Как определить? Провести сравнение сегментов в Метрике или другой системе аналитики, установленной на сайте, при этом в Webmaster.Yandex не должно быть никаких упоминаний о наложении санкций!
Тут задача номер один — найти проблемные страницы. Решить ее можно при помощи Яндекс Метрики. Для этого необходимо провести сравнение сегментов. Для этих целей — переходим во вкладку — Отчеты -> Стандартные отчеты -> Содержание -> Страницы входа:
Далее, сужаем сегмент до посетителей с Яндекс:
Далее, переходим в режим сравнения сегментов:
Теперь выставляем у сегментов различные даты. Первый сегмент я ставлю с 13 по 21 Марта. А второй сегмент — с 27 Марта по 4 Апреля. Такие странные даты я выбрал для того, чтобы обойти праздники, окружающие релиз алгоритма Yandex с двух сторон. И мы видим перед собой такую картину:
В итоге:
- пересобираем семантику для проблемных страниц
- готовим для них ТЗ на основе медианы ТОП 10
- соблюдаем в ТЗ все пункты, описанные в этой статье, в разделе из личной практики
- ускоряем индексацию
- ждем 2-4 недели и радуемся
Отличное видео в тему машинного обучения:
Резюме
Новый алгоритм Баден-Баден принес не только шумиху в мир seo, но и ряд других особенностей, невидимых с первого взгляда, но которые также нельзя упускать из виду, а именно:
- заметно изменилось текстовое ранжирование, ввиду чего сдвинулись медианы параметров ТОП’а во всех тематиках, так что, если у вас информационный сайт это надо понимать и правильно использовать
- молодые сайты в коммерческих тематиках стали еще легче заходить в десятку, благодаря правильно подобранным текстам и почти без ссылок
- ошибок в текстах быть не должно
- ключей в заголовках быть не должно
- сказать честно — статьи стали еще более математическими, что как-то странно. Если раньше можно было просто написать статью, не думая о поисковом продвижении, то сегодня такая статья может принести проблемы и ее проверка на параметры становится обязательной — несколько странно, вам не кажется?
Яндекс планомерно идет по намеченному пути отказа от ссылок (история началась тут), ввиду чего требования к текстам растут, но и значимость текстовых факторов растет, становясь все выше. Сегодня мы уже дошли до того, что качественный, вылизанный со всех сторон текст может быть в ТОП, даже если у него нет дизайна, то есть просто одинокий текст без сайта, без стилей и данную гипотезу я уже успел протестировать. По завершении эксперимента напишу очень интересную статью.
Стоит отметить, что Google выкатил новый алгоритм текстового ранжирования, но об этом в следующих статьях. Подписывайтесь на обновления, если хотите получать новые статьи моего блога с пылу, с жару да на почту;)
Оставь свой комментарий о статье
Комментарии к записи:
Хорошая статья, спасибо! Интересно, а как ошибки на полезность текста влияют… на общее качество текстов да, но на полезность… но на всякий случай лучше их действительно вычистить. Спасибо!
Да, по 5 последнему пункту очень странно — любой человек будет писать статью, и упоминание тематического слова всегда будет выходить за рамки по понятиям Яндекса. Можно взять страницу любой книги и она попадет под Баден.
Странная политика делать алгоритмы ранжирования, в котором априори станут править сеошники, а не обычные профессионалы своего дела, например, отделки квартир. Стоит им, непонимающим и несведущим, написать статью про штукатурку, она тут же влетит под Баден:)
Не очень понял что такое биграммы и триграммы — двух-трехсловные ключи что ли?
Описал прям как я бы и не сказал) Вот именно такие же мысли и у меня в голове) По биграмам — верно!
Здравствуйте. Что такое «медиана ТОП» ?
Среднее значение параметров текстов из ТОП 10 по запросу
При уменьшении Title до 70-90 знаков, можно ли увеличить URL с добавлением необходимых по звучанию ключевых слов или то, что не удалось написать в Н1 ? Какое влияние это может оказать на ранжирование?
Просьба! Сделай на сайте ярче шрифт-очень не комфортно читать тест!
Шрифт доработал, спасибо за замечание! По длине URL — не заметил проблем с длинными, хотя среди наблюдаемых сайтов есть очень длинные и даже у моего блога. Но на фоне всего, что описано в статье я стараюсь теперь делать их более короткими, хотя, повторюсь — никакой отрицательной статистики по данному параметру я не заметил!
Здравствуйте. Подскажите, а как это никаких ключей в заголовках. Можно с примерами для полноты раскрытия темы. Спасибо
Спасибо ,что прислушился и это для меня очень положительный момент, потому что такого уровня специалистов, у которых есть чему то поучиться, мало!!Очень важно другое! Ты все правильно изложил в статье ,но есть момент о которых тоже не стоит не надо забывать. А это замалчивать,Когда говорим о релевантности и Спасибо за то, что прислушился по поводу шрифта! Но есть еще момент, о котором хочу спросить! У тебя не складывается ощущение ,что в последнее время ребята с деньгами делают сайты ,и как правило не один, в одной тематике для того ,чтобы удалить конкурентов!И по тому ,смотришь ,что в ТОПе стоят статьи не по релевантности, а по тому, что забетонированные и покрытые позолотой тексты которые находятся у старых сайтов! И в связи с этим, я с некоторым недоверием отношусь к тому ,что ты называешь полезностью статьи? Надеюсь не по ADVEGO или ETXT. А как это можно определить? А не домыслы все это?
Хорошая статья. Вроде все по делу. Единственный момент, не раскрыта тема того, как на условия попадания и выхода из под Баден Бадена влияют поведенческие факторы. Проводилось ли по этому направлению какие либо исследования?
Видится мне, что не влияют никак, т.к. видел под фильтром интересные статьи с крутыми ПФ, в то же время переоптимизация никак не мешает статье иметь отличные поведенческие метрики!
Присоединяюсь к вопросу о ключах в заголовках. Уточните, пожалуйста. Что же мне в заголовке сумку называть мешком с ручкой? Спасибо.
Речь исключительно о коммерческих запросах вида «Купить сумку с ручкой» — «сумка с ручкой», конечно же, можно!
Добрый день.
Это значит из тайтла нужно убрать слова «купить»? Многие пишут, что наоборот это обязательно для интернет магазина. И не приведет ли это к повышенным отказам?
И еще подскажите по тегам для изображений? Как их заполнять если их в карточке товара скажем 10 штук?
Спасибо.
Нет, купить надо ОБЯЗАТЕЛЬНО оставить! Просто отделить от основного запроса. И в таком случае все-равно будет вычленен ключ с купить.
По изображением — добавьте простую нумерацию, например — «изображение товара №2»