SEO методы которые не работают в 2019 году

Устаревшее SEO или методы, которые больше не работают в 2019 году

Поисковая оптимизация одна из самых молодых областей IT индустрии. И одна из самых развивающихся и успешных. Год за годом меняются поисковые алгоритмы, и меняется само SEO, его методы. Все больше поисковики приближаются к людям, их предпочтениям и поведению в интернете, чтобы максимально точно отвечать их запросам. В этой статье поговорим о ретро SEO, о том, какие методы поисковой оптимизации больше не работают.

Ссылки

Именно с ссылок когда-то начиналось SEO. Люди закупали их пачками не потому что не знали методов оптимизации, а потому что их еще тогда по сути и не было. Поисковик в первую очередь смотрел на обратные ссылки — если у сайта их много, значит он полезный, значит его нужно выводить в ТОП по запросу Логика была простая. Ина этом сразу же начинали зарабатывать биржи ссылок, которые появлялись как грибы после дождя. Вебмастеру можно было закупиться ссылками и спать спокойно — завтра твой сайт появится в ТОП, никакой магии!

Причем, ссылки закупались с разных площадок, не всегда целевых. На форумах было много фрилансеров с предложениями по закупке ссылок — быстро, качественно и эффективно…

И только потом поисковик начал отличать — где действительно тематические ссылки, а где токсические с порно-сайтов… и стал вводить поисковые фильтры, которые понижали, а то и вовсе убирали из поисковой выдачи сайты, которые штучно себе наращивали беклинки. Одним из таких фильтро был Google Пингвин.

Google Penguin — это кодовое имя для обновления алгоритма Google, которое было впервые объявлено 24 апреля 2012 года. Обновление направлено на снижение рейтинга поисковых систем веб-сайтов, которые нарушают рекомендации веб-мастеров Google, используя SEO black-hat методы, участвующие в искусственном увеличении рейтинга веб-страницы, манипулируя количеством ссылок, указывающих на страницу.

И так SEO почало потихоньку меняться — в лучшую сторону. Оно поменялось настолько, что сегодня ссылки уже почти перестают работать.  Поисковые роботы стали обращать внимание на сам контент, его уникальность и разнообразие, на техническую оптимизацию сайтов, юзабилити, адаптивность и скорость загрузки страниц. Сайты у которых ссылки растут в невероятном количестве — уже не будут взлетать по щучьему велению, их банят. Теперь нужно пахать над контентом: в ход пошли копирайтеры, популярность которых с каждым месяцем растет.

Читайте также:  Что такое AMP и "с чем его едят"?

Да, поисковики закрутят гайки до максимальной степени, потому что главная цель Google — наблизится к максимальной естественности, «человечности». Поднять качество поисковой выдачи. Показывать в ТОПе действительно качественные сайты.

Вот, что изменилось за последние 10 лет:

  • Повысилась точность выдачи по редким и низкочастотным запросам — поисковики понимают простой человеческий язык.
  • В выдаче лидируют более качественные ресурсы — спам и переоптимизация ключевыми словами теперь приводит лишь к попаданию под фильтры.
  • Отпала необходимость в SEO-текстах — теперь нужно отталкиваться от нужд пользователя. Чтобы оптимизировать текст под запросы, стоит использовать LSI-копирайтинг.

Поэтому, просто ссылки больше не работают и их тенденция снижается. Ссылками можно что-то улучшить, но они не панацея и сами по себе бесполезны.

Спам

Прошли времена, когда в Тайтлы можно было закладывать кучи слов, типа: «купить», «заказать», «цена». Яндекс, например, за это легко может выписать поисковой фильтр «Баден-Баден». Все заголовки должны быть естественными на 100% и отвечать содержимому страницы.

Набить текст повторениями ключевого слова — это не работает. Если текст бесполезный и не уникальный — его поисковик никогда не поднимет в ТОП.

Добавить как можно больше текста на страницу — тоже не работает и является переоптимизацией. Количество символов должно отвечать релевантности ключевого слова. Если текст длинный как портянка, но не релевантный по отношению к ключевому слову, а другими словами «вода» — он тоже никому не нужен, поисковику в том числе.

Тут нужно понять, что раньше шла ориентация на поисковики, как тупых роботов. А сейчас нужно ориентироваться на людей. Google активно разрабатывает алгоритмы в пользу искусственного интеллекта. Поисковик воспринимает текст уже как человек, читает текст как человек. Разработчики полностью переделали старые алгоритмы. И этому, прогнозирую, не будет конца.

Читайте также:  5 вещей, которые нужно сделать перед запуском нового сайта

Накрутки

Разными ботами можно было накручивать поведенческие факторы. Таким образом поисковик думал, что это чистый трафик. Со временем Яндекс ввел специальный фильтр. Сейчас нет смысла что-то накручивать, рискуя тем самым полететь в поисковую пропасть.

Все чаще ценится индивидуальный, визуально привлекательный, тщательно подобранный и продуманный контент — со вкусом и душою, где чувствуется рука автора. Такие сайты намного лучше и быстрее попадают в поиск и ранжируются в ТОП. Разные SEO Black-hat приемы и техники порождают на самом деле еще больше проблем.

Оценка:
( Пока оценок нет )
Виталий Крашенинин / автор статьи
Основатель блога, публицист, IT-специалист
Понравилась статья? Поделиться с друзьями:
Opt In Image
Хочешь первым получать свежую информацию от меня?
Тогда подписывайся ↓
Krasheninin IT Блог - все о веб-технологиях, и не только
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!:

одиннадцать + 8 =

>