5 вещей, которые нужно сделать перед запуском нового сайта

В этом очерке мы кратко рассмотрим, что нужно сделать вебмастеру в первую очередь после запуска сайта, чтобы в дальнейшем избежать тяжелых проблем с индексацией, дублирующим контентом и другими ошибками оптимизации, которые могут затруднять ваше SEO продвижение.

Подключение SSL сертификата и перевод на https

Сегодня HTTPS является ранжирующим фактором, поэтому как только сайт будет готов и выложен в интернет, важно сразу же подключить надежный SSL-сертификат и перевести соединение на HTTPS-протокол. Почему, я говорю надежный SSL — а потому, что сейчас завелось очень много разных SSL-сертификатов, которые могут не правильно обрабатываться популярными браузерами и поисковиками, из-за чего возникают разные ошибки SSL. Самым наилучшим вариантом считается бесплатный Lets Encrypt SSL сертификат. Большинство хостинг-провайдеров его поддерживают и позволяют установить на сайт автоматически, плюс он будет автоматически продлеваться, так как может быть сгенерирован только на несколько месяцев.

После того, как SSL подключен — нужно весь сайт, все его страницы перевести на HTTPS-соединение, а для этого нужно проставить правильные редиректы, то есть склеить — http и https соединения, чтобы сайт был доступен только по одному URL-адресу с https.

Почему это нужно обязательно сделать сразу после запуска сайта? Да потому, что пока на нем мало страниц — меньше работы с переводом на https, плюс поисковик еще не проиндексировал сайт, поэтому у вас есть шанс спокойно перевести его на https без потерь трафика, а потом уже создать sitemap и отправлять его на индексацию в поиск Яндекс или Google. Если Вы начнете переводить на https уже проиндексированный сайт с большим количеством веб-страниц — могут повылазить разные проблемы, например ошибка микшированного контента, которая возникает когда на странице были использованы изображения или ссылки с других сайтов на НЕ HTTPS. Плюс мне приходилось дополнительно чистить всю базу данных в phpMyadmin, чтобы заменить все адреса с http на https. Приходилось пожертвовать и трафиком — так что лучше проводить эту процедуру со старта!

Читайте также:  Лучшие веб-сервисы для проверки адаптивной верстки и кроссплатформенности веб-сайта

Создание и проверка sitemap.xml

Как только все склейки и редиректы готовы, а веб-страницы доступны только по одному URL-адресу на HTTPS — можно приступать к созданию и тестированию обязательного системного файла sitemap.xml — это карта вашего сайта в XML-формате, которая сообщает поисковику о новом контенте на вашем сайте. Без него поисковики будут не часто заходить на ваш сайт и индексировать обновления.

Сгенерировать XML-sitemap можно с помощью специальных плагинов. Например, на WordPress я использую Yoast SEO или Google Sitemaps XML Generator.

Сайтмап должен быть доступен по URL-адресу: https://ваш-домен/sitemap.xml

Если он открывается и вы видите его содержимое — значит проблем нет и настало время отправить его на съедение в поисковые системы, а за одно проверить на наличие ошибок.

Делается это в Яндекс Вебмастере и Google Search Console так:

  • Отправка sitemap.xml в Яндекс Вебмастер

  • Отправка sitemap.xml в Google Search Console

После создания sitemap.xml рекомендуется также указать его в файле robots.txt, о котором далее пойдет речь.

Создание и проверка robots.txt

Данный системный файл служит специальным правилом для краулеров поисковых систем — он подсказывает им какие страницы и файлы на сайте должны попадать в индекс, а какие нет. С его помощью можно закрыть от поиска важные системные файлы и служебные страницы сайта. например страницы с номерами заказов в интернет-магазине, или персональные данные в аккаунтах пользователей на форуме. То есть, мы регулируем индексирование сайта. Указываются эти правила с помощью специальных директив, которые записываются в файл robots.txt, созданный в кодировке UTF-8 без BOM и помещенный в корневой раздел веб-сайта.

Как создать правильный robots.txt для WordPress  — есть отдельная статья в моем блоге.

Канонические страницы и настройка пагинации

Канонические страницы необходимо настроить в самом начале перед запуском или после запуска сайта. Если их не настроить, могут потом появится проблемы с дублями в результатах поисковой выдачи и как следствие — замусоривание и плохое индексирование сайта.

Плохо если страницы пагинации, например /page/2, /page/1 попадают в индекс. Они не несут никакой ценности, а только дублируют контент. В итоге, мы получаем море дублей, а поисковик краулит бесчисленное число страниц пагинации, что в итоге приводит к не стабильной индексации сайта.

Читайте также:  Михаил Шакин - SEO Винчестер (2014)

Есть 2 метода, как бороться с этим:

  1. Использовать атрибут rel=canonical — поисковик будет понимать, что это пагинация
  2. Использовать атрибут meta robots=noindex, nofollow — поисковик будет игнорировать страницы пагинации при обходе

Я использую второй вариант. В данном случае поисковик даже не будет стараться потратить свой драгоценный краулинговый «бюджет» на не нужные страницы. Зато canocial url я использую в других задачах — когда у меня множество страниц с разными URL-параметрами, но одинаковым контентом, а это дубли Title, H1, Description. И чтобы не появилось этих дублей — я использую как раз атрибут rel=canonical:

Прописать массово атрибут meta robots на сайте под управлением CMS WordPress можно просто добавив в файл functions.php кусок кода:


add_action( 'wp_head', 'noindex_paged', 2 );

function noindex_paged() {
if ( is_paged() ) {
echo '<meta name="robots" content="noindex,nofollow"/>';
}
}

В завершение этой части, несколько полезных ссылок на матчасть:

  • https://yandex.ru/blog/platon/2878
  • https://yandex.ru/support/webmaster/controlling-robot/html.html
  • https://support.google.com/webmasters/answer/139066?hl=ru

Проверить скорость загрузки сайта и включить сжатие

Сразу после запуска сайта очень важно проверить скорость рендеринга, то есть скорость загрузки сайта на разных устройства, что является на сегодня фактором ранжирования. Например, работу сайта могут замедлять кое-какие скрипты или передаресации. Выявить их и оптимизировать поможет два инструмента:

  • Google PageSpeed 
  • GTmetrix

Особо важно проверить скорость сайта на смартфонах, так как Google все сайты теперь поголовно переводит на mobile-first index.

Если у вас очень низкая скорость загрузки сайта — придется подумать о сжатии скриптов на сайте, а также обязательно включить GZIP-сжатие на сервере. Для WordPress существует замечательный плагин, который один из моих громоздких сайтов сделал быстрым и легким по GTmetrix: https://wordpress.org/plugins/autoptimize/

В целом, у кого веб-код валидный, а шаблон адаптивный — тот не познает каких-то проблем со скоростью загрузки сайта. Поэтому, при разработке сайта сразу учитывайте эти факторы, чтобы потом не переделывать шаблон.

На этом все, если что-то забыл — пишите в комментариях!

Оценка:
( 1 оценка, среднее 5 из 5 )
Виталий Крашенинин / автор статьи
Основатель блога, публицист, IT-специалист
Понравилась статья? Поделиться с друзьями:
Opt In Image
Хочешь первым получать свежую информацию от меня?
Тогда подписывайся ↓
Krasheninin IT Блог - все о веб-технологиях, и не только
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!:

17 + 7 =

>