Фильтры поисковых систем Яндекс и Google

Сегодня мне захотелось проанализировать все существующие фильтры поисковых систем — и Яндекс, и Google, от самого начала их существования. В интернете так и не нашел полный список всех фильтров для обоих ПС, поэтому решил самостоятельно найти и проанализировать, почитал официальные документации и собрал все в один список. Надеюсь, Вам тоже будет интересно.

Зачем нужны фильтры поисковых систем?

Главная причина введения поисковых фильтров — улучшить качество поисковой выдачи (SERP — Search Engine Result Page). Дело в том, что со временем количество сайтов начало стремительно расти, как качественных так и не качественных сайтов, а также сайтов, которые использовали черные методы раскрутки для попадания в ТОП (Black Hat SEO). В итоге, поисковая выдача захламлялась, пользователь в поисковой строке вводил запрос и ему показывались не всегда качественные сайты. Поисковики решили исправить эту ситуацию и ввели определенные требования и санкции для сайтов, которые нарушают. Таким образом, в ТОП стало попасть труднее и там начали появляться, не всегда конечно, но в основном авторитетные сайты с определенным рейтингом и соответствующей оптимизацией. Сайты которые не отвечают требованиям поисковых систем — начали понижаться в SERP’е.

Фильтры Google

Google первым взялся за сайты, которые использовали манипуляции. Как следствие, такие сайты начали резко терять позиции (понижаться в SERP) и трафик (количество посетителей).

Google Penguin (Пингвин)

Хитрые сеошники заприметили факт, что благодаря обратным ссылкам (Backlinks) можно существенно увеличить авторитетность ресурса, Гугл это «хавает» и начали использовать его во всю лихую. В итоге, начали появляться целые линкофермы, единственным заданием которых было — продажа и обмен ссылок на другие сайты. Владельцы сайтов массово закупали ссылки на специализированных биржах, по типу SAPE, и появлялись, как не странно, в ТОПе поисковой выдачи.

Но не долго музыка играла, не долго фраер танцевал. Пингвин появился в 2012 году и первым наказал сеошников за манипуляции ссылками.

Фильтр пингвин гугла

Схватить пингвина можно за:

  • нетематические (токсические) внешние ссылки
  • переспам ключевых слов, переоптимизация текста в анкорах (<a></a>)
  • резкое увеличение ссылочной массы
  • ссылки с нетематических, спамных, вирусных, заблокированных (IP Blacklist) веб-сайтов
  • покупки ссылок на бирже SAPE

Сейчас фильтр Пингвин полностью интегрирован в алгоритм ранжирования Google и работает на автомате, из-за чего некоторые предположили что Пингвин мертв. Но это не так. Да, он не наказывает и не штрафует, не вносит сайты в Black list, а просто обесценивает их в глазах поисковика. И вернуть доверие не так уж и легко, по словам тех же сеошников, это занимает от 1 года. В итоге, стало еще сложнее вывести сайт из-под фильтра.

Доп. сведения: https://en.wikipedia.org/wiki/Google_Penguin

Google Panda (Панда)

По некоторым данным Панда появилась еще в 2011 году, а может и раньше. Но ее основной работой были не ссылки — а дублированный и спамный контент. В то время, контент копировался поголовно. Никто не озадачивался проверкой уникальности текста и оптимизацией под ключевые слова тоже.

Фильтр Панда

Получить фильтр от панды можно за:

  • На сайте много не качественного контента (стилистические, орфографические, граматические ошибки)
  • На сайте много не релевантного, сомнительного контента
  • На сайте дублированный контент
  • На сайте спамный контент (избыточное вхождение ключевых слов)
  • На сайте высокий процент отказов пользователей
  • На сайте много рекламы

Таким образом, фильтр Панда дает оценку качества сайта. Нужно отметить, что Пингвин мог банить не весь сайт, а отдельные страницы. Панда же оценивает сайт в общем, и если дублированный контент был замечен не на всех, не на главной, а на какой-то одной внутренней странице — фильтр применятся не будет.

Читайте также:  10 полезных SEO-блогов: список

Доп. сведения: https://en.wikipedia.org/wiki/Google_Panda

Google Hummingbird (Колибри)

Hummingbird —  кодовое название, данное существенному изменению алгоритма в поиске Google в 2013 году. Его название произошло от скорости и точности птицы — колибри. Изменение было объявлено 26 сентября 2013 года, так как оно уже использовалось в течение месяца.

«Колибри» стал вестником семантического анализа и штучного интеллекта, который постепенно внедрялся в алгоритмах Google. «Птица» точно понимает логику запроса пользователя, на естественном языке, учитывая контекст и значение отдельных ключевых слов. Это было одним из значительных изменений в поиске Google за последние годы, с более «человеческими» поисковыми взаимодействиями и гораздо более сильным акцентом на разговорный стиль и смысл. Колибри еще называют — «понимающим алгоритмом».

Таким образом, веб-разработчикам и авторам было рекомендовано оптимизировать свои сайты, используя естественное написание, а не принудительные ключевые слова, и эффективно использовать техническую веб-разработку для навигации по сайту (юзабилити).

По сути «Колибри» это даже не фильтр, а обычный алгоритм, который понижает позиции сайтов, если их контент не естественный и не отвечает запросам пользователя.

Колибри

Фильтр колибри прилетает за:

  • не естественный контент, который писался для поисковиков, а не людей
  • контент, который не отвечает на интент (запрос) пользователя
  • текст не релевантный, не используются синонимы, разговорные формы, LSI ключи

Доп. сведения: https://en.wikipedia.org/wiki/Google_Hummingbird

Google Fred (Фред)

Фильтр появился в 2017 году как обновление одного из алгоритмов Google (Google Maccabees). Свое название «Фред» получил от одного из сотрудников компании — Гарри Иллиеса, который в шутку сказал, что теперь каждый новый алгоритм по умолчанию будет называться Фред, если не будет иметь другого названия.

Алгоритм затронул фиктивные сайты с Black Hat SEO — малоценным, бесполезным, копированным контентом, которые при этом получали стабильный трафик с органического поиска. После этого фильтра, или вернее алгоритма, такие сайты потеряли 90% трафика. В основном это были обычные площадки для продажи, для заработка на рекламе, которые использовали RSS каналы для публикации контента.

Фильтр Гугл Фред

За что наказывает Фред?

  • большое количество надоедливой pop-up, баннерной рекламы
  • сайты-площадки для слива трафика и заработке на  рекламе
  • сайты копирующие контент с других ресурсов
  • сайты с малоценным, бесполезным содержанием
  • сайты, которые используют Black Hat SEO методы

Доп.сведения: https://en.wikipedia.org/wiki/Google_Fred

Фильтры Яндекс

Сам по себе Яндекс на заре своего существования мало чем отличался от Google (имхо). Более того, на мой личный взгляд, у разработчиков тогда не было другого выбора, как просто взять и скопировать лучший забугорный поисковик. Поэтому, основа поисковика Яндекс все-таки очень похожа на Google. И его алгоритмы и фильтра — аналогично. Конечно, со временем разработчики «Яши» обрели свой опыт и, не побоюсь этого слова, на голову опередили америкосов по качеству поиска, по качеству сервиса (Яндекс Вебмастер и Метрика, Яндекс Вордстат — лучшие инструменты SEO специалиста), по своему подходу к рекламной платформе и так далее. Но мы не об этом.

Фильтр «АГС»

Один из «старейших» фильтров Яндекса. Появился в 2009 году. Сначала поисковик запустил АГС-17, а затем АГС-30. Фильтр оценивал сайт по более 100 параметрам качества сайта. Последствием фильтра был настоящий кошмар — в поисковой выдаче пропадали все страницы, кроме главной. Затем появился АГС-40, который просто обнулял тИЦ сайта.

В 2015 году вышел просто АГС и он снова стал «уничтожать», и не только говносайты. Были случаи, когда из выдачи пропадали даже качественные сайты с аномальной ссылочной массой.

Фильтр достаточно резко относится к сайтам на бесплатных доменах и хостинге, малого возраста с малоценным контентом.

Фильтр «Переспам»

Появился, по словам некоторых оптимизаторов, в 2010 году и затронул текстовую составляющую сайтов. Оптимизаторы дали ему свое имя — «Ты Спамный».

Читайте также:  Как изменялась выдача Google: 1998 - 2019

Фильтр нацелен на:

  • избыточное количество вхождений ключевых слов в тексте
  • слишком огромные и не оптимизированные тексты «портянки» не имеющие структуры
  • тексты с применением не естественных выражений, например: «Москва мебель купить»
  • тексты с высоким уровнем «тошноты» или «воды»

Основные признаки фильтра «Переспам»:

  • Начали резко «обваливаться» позиции по какому-то одному запросу. При этом, по другим запросам та же страница может ранжироваться в ТОПе и получать трафик как ни в чем не бывало
  • Позиции сайта проседают на 10-30 пунктов
  • Общая видимость сайта резко падает

Фильтр «Переоптимизация»

Появился в 2011 году. Во многом похож на своего предшественника «Переспам», но его отличие в том, что он может затронуть не конкретно какой-то один запрос, а всю страницу вместе с пачкой продвигаемых на ней ключевых слов.

Фильтр «Новый»

Функционирует с 2014 года и является усовершенствованным алгоритмом «Переспам». Проявляется на сайтах с избыточно длинным и заспамленным Title, а также  злоупотребление тегами выделения слова в тексте — <b>, <u>, <strong>, <em> или <i>.

Фильтр «Минусинск»

Запущен в 2015 году. Аналог гугловского Пингвина. В Яндекс Вебмастер начали приходить предупреждения о манипуляциях ссылками. Таким образом, сайты, которые продвигались в основном покупными SEO-ссылками начали понижаться в поисковой выдаче на срок от 1 до нескольких месяцев.

С долей 90% вероятности Вы получите Минусинск, если:

  • количество покупных ссылок составляет более 40% от всей ссылочной массы сайта;
  • Яндекс обнаружил более 500 покупных ссылок на ваш сайт;
  • В анкорах входящих ссылок преобладают коммерческие ключи.

Доп. сведения: https://yandex.ru/support/webmaster/yandex-indexing/algorithm-minusinsk.html

Фильтр «Ссылочный взрыв»

Одна из разновидностей «Минусинска». Накладывается за появление аномального количества беклинков за короткий промежуток времени. Вот поэтому ссылки рекомендуются закупать плавно, а не галопом. И желательно без использования ссылочных бирж с тематически родственных сайтов.

Фильтр «Непот»

Экстремальная разновидность «Минусинска». Этот фильтр срабатывает уже по отношению сайтов-линкопомоек и линкоферм. Алгоритм определяет сайты, которые торгуют ссылками и аннулирует их — они перестают иметь вес.

Фильтр «Баден-Баден»

Один из наиболее нашумевших фильтров за всю историю Яндекса. Алгоритм был запущен 22 марта 2017 года и является переработанными алгоритмами «Переспам» и «Переоптимизация».  Его особенность — уникальный алгоритм, который способен распознавать естественную речь. Его задача — полностью и окончательно избавиться от заспамленных, бесполезных сайтов в ТОПе поисковой выдачи и сделать ее удобной, ценной, информативной.

Ваш сайт попадет в «Баден-Баден», если:

  • вы используете разные хитрости поисковой оптимизации, например скрываете, набитый спамом, текст от поисковиков с помощью разных скриптов или иными хитрыми методами
  • у вас коммерческая тематика (интернет-магазин) и сайт полностью состоит из «воды»
  • отсутствие уникальности у текстов
  • вы используете в текстах не согласованные, не связанные между собой фразы и речевые обороты, не естественная речь

Как проверить наличие фильтров поисковых систем?

С помощью Вебмастеров

Если у Вас есть подозрение на фильтры, первое, что нужно сделать — это зайти в Яндекс Вебмастер и Google Search Console.

  • В Яндекс Вебмастере — раздел «Безопасность и нарушения».
  • В Google Search Console — раздел «Проблемы безопасности, и меры принятые вручную».

С помощью онлайн-сервисов

  • https://pr-cy.ru
  • https://www.cy-pr.com/tools/
  • https://seobudget.ru
  • https://feinternational.com/website-penalty-indicator/
  • https://barracuda.digital/panguin-seo-tool/

Как выйти из-под фильтра поисковой системы?

  1. Если вас затронул ссылочный фильтр Google, можно воспользоваться инструментом отклонения ссылок — Disavow Tools.
  2. Если вы увидели уведомление в Вебмастерах поисковиков — отправьте запрос на перепросмотр.
  3. Если у вас фильтр АГС или другие — напишите в техподдержку Яндекса
  4. Перепишите все тексты на сайте, сделайте качественный рерайт
  5. Пересмотрите свою SEO стратегию, маркетинговую стратегию — они не должны нарушать правила поисковиков
  6. Откажитесь от любых хитростей и манипуляций
  7. Удалите сайт со всех бирж ссылок
  8. Проверьте сайт на дублированный контент и замените его на уникальный
  9. Заполните все мета-теги
  10. Если ничего не помогло — перенесите сайт на новый хостинг или домен
Оценка:
( 3 оценки, среднее 5 из 5 )
Виталий Крашенинин / автор статьи
Основатель блога, публицист, IT-специалист
Понравилась статья? Поделиться с друзьями:
Opt In Image
Хочешь первым получать свежую информацию от меня?
Тогда подписывайся ↓
Krasheninin IT Блог - все о веб-технологиях, и не только
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!:

3 + 2 =

>