Поисковые системы уделяют особое внимание качеству сайта, а также контента, который на нем размещен. Ссылочный спам, низкая уникальность, переспам (избыток ключевых слов), отсутствие экспертности и другие ошибки могут стать причиной попадания под фильтры. Каждая система использует набор уникальных алгоритмов, которые контролируют соответствие правилам, если нарушения выявлены – последуют санкции. Рассказываем о том, как их наложение определить, а потом – устранить.
Как провести проверку наличия фильтров
Ухудшение стабильных показателей – причина насторожиться. Речь идет о падении трафика и тематического индекса цитирования: если в течение последних дней на сайте не происходили изменения, то это может указывать на наличие фильтров. Постоянный контроль показателей позволяет контролировать ситуацию: чем раньше проблема будет выявлена, тем легче ее устранить.
Нарушение безопасности
Нужно посмотреть отчет в Google Search Console, который дает возможность обнаружить проблемы с уровнем защиты домена:
- вредоносное программное обеспечение;
- контент, опубликованный без разрешения владельца;
- взлом с последующим размещением недостоверных, вводящих в заблуждение, запрещенных материалов.
При выявлении проблем система предоставит список предупреждений и рекомендации по их устранению: лучше не откладывать «лечение» на потом, чтобы предупредить взлом, кражу данных пользователей, вирусные рассылки.
Проверка поискового трафика
Падение посещаемости – одна из самых распространенных причин, связанная со снижением объемов трафика. Она может быть вызвана сезонными колебаниями спроса, а не фильтрами: лучше сравнивать показатель в динамике и по отношению к отчетному периоду прошлого года.
Количество страниц в индексе
Для анализа объема проиндексированных страниц достаточно открыть поиск Google, а потом использовать оператор «site:URL-адрес вашего сайта». Если количество страниц сократилось с прошлой проверки, то это может указывать на наличие фильтров. Инструмент эффективен для больших сайтов (от 500 страниц).
Какие сервисы помогут выполнить проверку
- Serphunt. Отслеживает SEO-позиции, проводит исследование посещаемости и индекса, выполняет конкурентный анализ и проверку внешних ссылок.
- Be1. Применяется для проверки трафика, анализирует позиции страниц в выдаче и мониторит частотность запросов. Дополнительно – определение технических проблем, выявление наличия фильтров ПС Яндекс, наложенных за переспам. Комплексная оценка выполняется быстро и бесплатно.
- Топвизор. Можно посмотреть позиции в ТОП и провести оценку семантического продвижения, а также собрать SEO-ядро. Функциональный сервис, но платный (ставки стартуют примерно от 1 тысячи рублей в месяц).
- Pixel Tools. Простой и понятный, подходит для новичков, желающих обнаружить критические ошибки. Анализ выполняется по Яндекс и Google, доступна бесплатная версия с лимитами.
Какие фильтры использует Google, почему их накладывают и как снять
Алгоритмы стоят на страже качества, в результате фильтры могут накладываться на определенные страницы, также возможны пессимизация или выпадение из индекса всего сайта.
Sandbox
Основная цель – мониторинг молодых доменов и процесса развития сайта. Если фильтр наложен, то ресурс не представлен в выдаче. Причин наложения несколько:
- неестественное наращивание ссылочного профиля: воспринимается как спам;
- произошли радикальные изменения: новые хостинг или владелец, замена контента.
Срок пребывания под этой санкцией – от 2 недель до месяцев. Для снятия нужно проводить изменение контента, выполнять перелинковку и делать ставку на качественные ссылки (только проверенные доноры).
Domain name age
Тоже проверяет молодые сайты возрастом до 1 года, противостоит информации низкого качества. Наложение – автоматическое, если уровень траста будет повышен, то санкции снимут. Для предупреждения фильтра лучше купить старый домен с благоприятной историей. Дополнительно – работа с трастовыми бэклинками в уникальных статьях, важно расположение: на первом экране – отлично (высокий вес), в футере – плохо. Важно продолжение оптимизации сайта, что нужно для развития после снятия фильтра.
Too many links at once
После наложения фильтра фиксируется падение трафика из поисковой системы «Гугл». Параллельно происходит обнуление обратных ссылок на сайты, раньше имевшие хороший вес. Причина – закупка большого количество ссылок, игнорирование рекомендаций по временным интервалам. Предупредить фильтр поможет отсутствие увеличения динамики наращивания ссылок, но текущие темпы лучше сохранить. Оптимально – плавная работа со ссылочной массой, позволяющая снять фильтр в срок 1-3 месяца после наложения.
Bombing
Санкция опасна для страниц, которые по мнению поисковика связаны со спам-активностью: произойдет падение трафика. Под фильтр можно попасть в случае, если на сайт ведет много обратных ссылок, имеющих одинаковые метатеги и анкоры. Для выхода достаточно удалить спамные ссылки, можно изменить текст. Проработать нужно каждую, иначе ограничения не будут сняты. После завершения корректировки ждать придется от нескольких месяцев до 1-1,5 лет.
Broken Links
«Ловит» ссылки, которые ведут на несуществующие страницы, и отслеживает общее качество ресурса. В зоне риска – интернет-магазины, которые часто удаляют и переносят товарные страницы. Если обнаружено много страниц с ошибкой 404, индексация усложняется, а пользователям неудобно взаимодействовать с сайтом. Предупредить или снять фильтр поможет чистка битых ссылок, что можно сделать через Google Search Console, Broken Link Checker или Яндекс.Вебмастер.
SEO-Links
Техника обмена ссылками канула в лету, ей на смену пришел фильтр SEO-Links. Если на сайте размещено много ссылок на другие ресурсы, которые в свою очередь ссылаются на него, то риск наложения санкций повышается. Рекомендуется ссылаться не более чем на 2-4 партнеров, если фильтр уже есть – эти линки нужно удалить.
Page load time
Медленная загрузка страниц тоже вызовет недовольство алгоритмов поисковой системы. Если с загрузкой проблемы – может быть наложена пессимизация в результатах выдачи. Метод «лечения» простой: нужно использовать инструмент PageSpeed для оценки скорости, потом – внести рекомендованные правки.
Omitted results
Иногда поисковая система скрывает некоторые результаты – на эти сайты наложены санкции. Фильтр привлекают за плохую перелинковку, внешние и внутренние дубли. Результаты часто опускают вниз, в некоторых случаях они выпадают из индекса. Для снятия рекомендуется уделить внимание качеству и уникальности контента, как опубликованного, так и свежего.
-30
Фильтр в результатах ранжирования понижает на 30 строк сайты, привлекающие методы черного SEO-продвижения. Основные кандидаты – ресурсы, использующие скрытые редиректы, сквозные сайты для махинаций с трафиком, разный для роботов и пользователей дизайн. Устранив это, владелец сможет снять фильтр.
Over optimization
После наложения сайт либо исключают из индекса, либо понижают его позиции. Причина – излишняя оптимизация, переспам (контент, метатеги, alt картинок) или широкое SEO-ядро. Правильная оптимизация и устранение переспама – единственное решение проблемы.
Пингвин
Площадки, которые ссылаются на ваш сайт, должны быть релевантными. Если ссылка на интернет-магазин по продаже автомобильных запчастей размещена на форуме для мам, то возникнут проблемы с определением сферы, а позиции по ключевым запросам будут понижены. Донор и акцептор должны иметь аналогичную или схожую тематики, если фильтр уже есть – нужно удалить все ссылки на площадках, являющихся неподходящими.
Панда
Отслеживает качество контента, если он совсем плохой – происходит исключение из индекса, в остальных случаях – понижение позиций. Причина – отсутствие конкретизации тематики, освещение чрезмерно разных вопросов и противоречивый контент, «водность» текстов. Панду можно получить за низкие поведенческие факторы: пользователь зашел на сайт и быстро ушел – это фиксируется, если проблема системная, то позиции в выдаче будут ухудшаться из-за подозрений на нерелевантность. Предупредить фильтр поможет соблюдение основных принципов E-A-T, работа с четкими тематиками, изобилие полезной информации и положительные SEO-показатели. Последние проверяют через специальные сервисы, например, в Advego рекомендуемый показатель – 55-60%, на Текст.ру – до 20%.
В заключение
У поисковой системы Google много алгоритмов и мер, привлекаемых для борьбы с нарушителями. Для предупреждения санкций нужно соблюдать свод стандартных и несложных правил: отказ от спама в контенте и внешних ссылках, чистота в вопросах ошибки 404, высокая скорость загрузки страниц, соблюдение запрета на использование черного SEO. Проверку на наличие санкций рекомендуется проводить минимум 2 раза в месяц или при резком изменении основных показателей (трафик, конверсии), дополнительно – исследовать сайт на наличие ошибок через Google Search Console. Важно помнить, что у ПС Google и Яндекс разные алгоритмы, если в первой фильтры есть, то во второй – могут отсутствовать, что необходимо учитывать при выполнении анализа.