SEO методы которые не работают в 2019 году

Устаревшее SEO или методы, которые больше не работают

Поисковая оптимизация одна из самых молодых областей IT индустрии. И одна из самых развивающихся и успешных. Год за годом меняются поисковые алгоритмы, и меняется само SEO, его методы. Все больше поисковики приближаются к людям, их предпочтениям и поведению в интернете, чтобы максимально точно отвечать их запросам. В этой статье поговорим о ретро SEO, о том, какие методы поисковой оптимизации больше не работают.

Ссылки

Именно со ссылок когда-то начиналось SEO. Люди закупали их пачками не потому что не знали методов оптимизации, а потому что их еще тогда по сути и не было. Поисковик в первую очередь смотрел на обратные ссылки – если у сайта их много, значит он полезный, значит его нужно выводить в ТОП по запросу Логика была простая. И на этом сразу же начинали зарабатывать биржи ссылок, которые появлялись как грибы после дождя. Вебмастеру можно было закупиться ссылками и спать спокойно – завтра твой сайт появится в ТОП, никакой магии!

Причем ссылки закупались с разных площадок, не всегда целевых. На форумах было много фрилансеров с предложениями по закупке ссылок – быстро, качественно и эффективно…

И только потом поисковик начал отличать – где действительно тематические ссылки, а где токсические с сайтов… и стал вводить поисковые фильтры, которые понижали, а то и вовсе убирали из поисковой выдачи сайты, которые штучно себе наращивали бэклинки. Одним из таких фильтров был Google Пингвин.

Google Penguin – это кодовое имя для обновления алгоритма Google, которое было впервые объявлено 24 апреля 2012 года. Обновление направлено на снижение рейтинга поисковых систем веб-сайтов, которые нарушают рекомендации веб-мастеров Google, используя SEO black-hat методы, участвующие в искусственном увеличении рейтинга веб-страницы, манипулируя количеством ссылок, указывающих на страницу.

И так SEO почало потихоньку меняться – в лучшую сторону. Оно поменялось настолько, что сегодня ссылки уже почти перестают работать.  Поисковые роботы стали обращать внимание на сам контент, его уникальность и разнообразие, на техническую оптимизацию сайтов, юзабилити, адаптивность и скорость загрузки страниц. Сайты у которых ссылки растут в невероятном количестве – уже не будут взлетать по щучьему велению, их банят. Теперь нужно пахать над контентом: в ход пошли копирайтеры, популярность которых с каждым месяцем растет.

Да, поисковики закрутят гайки до максимальной степени, потому что главная цель Google – наблизится к максимальной естественности, “человечности”. Поднять качество поисковой выдачи. Показывать в ТОПе действительно качественные сайты.

Вот, что изменилось за последние 10 лет:

  • Повысилась точность выдачи по редким и низкочастотным запросам — поисковики понимают простой человеческий язык.
  • В выдаче лидируют более качественные ресурсы — спам и переоптимизация ключевыми словами теперь приводит лишь к попаданию под фильтры.
  • Отпала необходимость в SEO-текстах — теперь нужно отталкиваться от нужд пользователя. Чтобы оптимизировать текст под запросы, стоит использовать LSI-копирайтинг.

Поэтому, просто ссылки больше не работают и их тенденция снижается. Ссылками можно что-то улучшить, но они не панацея и сами по себе бесполезны.

Спам

Прошли времена, когда в тайтлы можно было закладывать кучи слов, типа: “купить”, “заказать”, “цена”. Яндекс, например, за это легко может выписать поисковой фильтр “Баден-Баден”. Все заголовки должны быть естественными на 100% и отвечать содержимому страницы.

Набить текст повторениями ключевого слова – это не работает. Если текст бесполезный и не уникальный – его поисковик никогда не поднимет в ТОП.

Добавить как можно больше текста на страницу – тоже не работает и является переоптимизацией. Количество символов должно отвечать релевантности ключевого слова. Если текст длинный как портянка, но не релевантный по отношению к ключевому слову, а другими словами “вода” – он тоже никому не нужен, поисковику в том числе.

Тут нужно понять, что раньше шла ориентация на поисковики, как тупых роботов. А сейчас нужно ориентироваться на людей. Google активно разрабатывает алгоритмы в пользу искусственного интеллекта. Поисковик воспринимает текст уже как человек, читает текст как человек. Разработчики полностью переделали старые алгоритмы. И этому, прогнозирую, не будет конца.

Накрутки

Разными ботами можно было накручивать поведенческие факторы. Таким образом поисковик думал, что это чистый трафик. Со временем Яндекс ввел специальный фильтр. Сейчас нет смысла что-то накручивать, рискуя тем самым полететь в поисковую пропасть.

Все чаще ценится индивидуальный, визуально привлекательный, тщательно подобранный и продуманный контент – со вкусом и душою, где чувствуется рука автора. Такие сайты намного лучше и быстрее попадают в поиск и ранжируются в ТОП. Разные SEO Black-hat приемы и техники порождают на самом деле еще больше проблем.

Оценка:
( Пока оценок нет )
Подписка на KRASHENININ.TECH

Получайте ежедневные обновления на почту!


Виталий Крашенинин aka KRV/ автор статьи
Основатель блога, публицист, IT-специалист
Понравилась статья? Поделись с друзьями:
KRASHENININ.TECH - блог о веб-технологиях, и не только
Оставить комментарий
avatar
500
  Подписаться  
Уведомление о