Технический SEO-анализ сайта

Сегодня я расскажу, как провести грамотный SEO аудит сайта самостоятельно. Разберем все на живом примере и без воды. Начнем с того, что попытаемся разобраться, что такое SEO-аудит и зачем его вообще делать. SEO-аудит — это комплексная проверка сайта на соответствие требованиям и рекомендациям поисковых систем. Результатом аудита является подробное описание всех проблем и инструкции к их устранению. Технический аудит — проверка кода, редиректов, мета-тегов, robots.txt, битых ссылок, скорости сайта и других технических параметров, косвенно или непосредственно влияющие на SEO. SEO-aудит конкурента(ов) — данный аудит позволяет определить по каким параметрам сайт конкурента превосходит исходный сайт. Главное отличие с точки зрения специалиста, который проводит аудит — это ограниченность данных (нет доступов к приватным системам метрики, таким как Яндекс.Метрика, Google analytics, Яндекс и Гугл вебмастера. В сегодняшнем примере мы подробно разберем именно Техничеcкий SEO-аудит. Это сайт нашего клиента, который обратился к нам за SEO-продвижением. Сайту всего несколько месяцев, поэтому наша главная задача исправить все ошибки по техническому SEO, проанализировать качество контента и составить план работ на ближайшие полгода.

Какие инструменты использовать для аудита сайта? Существует множество способов сделать хороший аудит. Каждый из этих инструментов дает нам часть информации о сайте, которая используется в Аудите. Сбор и анализ данных довольно труднозатратный и занимает продолжительное время. Хорошо, что мы живем в век Больших данных, где машины и программы умеют обрабатывать большой массив информации и представлять нам готовый результат. Далее мы подробно рассмотрим работу сервиса на примере «живого» аудита. Сервис предлагает полностью бесплатный технический анализ страниц сайта. Но гораздо проще оплатить один из тарифов и проверить сайт целиком. Сразу скажу, что у сервиса пока нет русского языка, мультиязычность обещают добавить до конца 2020 года. Поэтому все скрины будут на английском зыке, а я буду пояснять, если нужно. Первое, что нужно сделать, это добавить проект в систему. После вводим домен вашего сайта, а на втором шаге нужно выбрать какое максимальное кол-во страниц сайта будет просканировано. Есть ограничения в зависимости от тарифа. Я хочу просканировать все страницы сайта, поэтому поставлю ограничение в 2000 — там их точно не больше.

На этой странице нужно поставить галку напротив «Respect robots.txt», что значит учитывать правила из файла Robots.txt. Здесь стоит объяснить, что такое Robots.txt и зачем он нужен. Robots.txt — это файл с правилами для поисковых систем, в котором указано, какие страницы можно индексировать и добавлять в результаты поиска, а какие нет. Разбирать здесь, как правильно написать этот файл я не буду, это тема отдельной статьи. Если кратко: наш сайт работает на Opencart 3.0 — находим в интернете шаблон robots.txt для Opencart — и дорабатываем его, закрывая от индекса корзину, страницу пользователя, страницу сравнения и другие материалы, которые не хотим видеть в индексе ПС. Единственное, чтобы я вам посоветовал — это исключить из анализа страницы изображений. На следующем шаге вам предложат включить мониторинг и страниц и выбрать его периодичность. Это будет актуально, если вы хотите отслеживать все изменения и ошибки постоянно. Далее — интеграция с сервисами Google. Советую это сделать. Однако данный шаг можно и пропустить — на технический анализ это никак не повлияет.

Затем нам предлагают выбрать поисковую систему и регион для отслеживания позиций сайта в поисковых системах. И последний шаг — можно загрузить список ключевых слов для отслеживания позиций в поисковых системах. Проект создан — начинается анализ данных. После того, как анализ будет закончен, результаты появятся во вкладке «Site Audit». Первое, что мы видим сайт набрал 95 баллов из 100. Что ж, неплохо. Но это не повод расслабляться. Первое, на что я обратил внимание — это 1687 просканированных страниц. Реальных страниц, которые должны индексироваться всего около 500. Следовательно, нужно искать «лишние» страницы. Это либо дубли с техническими url, либо другие технические страницы, возможно страницы пагинации в категории интернет магазина. Выясним это в процессе изучения анализа. Начнем разбираться с критическими (для удобства восприятия скриншотов я переведу страницу на русский с помощью встроенного переводчика в Chrome). Сразу отмечу, что сам сервис подробно рассказывает, что это за ошибка и как ее исправить. «Если внутренняя ссылка на вашем веб-сайте приводит людей к URL-адресу HTTP, современные браузеры покажут предупреждение о незащищенной странице.

В нашем случае такие ссылки используются на слайдере главной страницы и не приводят к «предупреждению о незащищенной странице». Предупреждение о незащищенной странице возникает, когда через http загружается медиа-контент или JS скрипты. Но исправить будет не лишним. Довольно серьезная ошибка, которая говорит о том, что разные страницы имеют одинаковый Title. Кликнем на «34 страницы» и посмотрим подробнее. Откроется список страниц, у которых дублированные Title. А по клику на красную область увидим, какую страницу дублирует та, по которой кликнули. В нашем случае много человеческих ошибок при заполнении. Здесь все понятно — нужно добавить. В данном отчете находятся страницы, которые отдают некорректный ответ 404 ошибки. К примеру, первая ссылка «https://stanwood.by/gostinaya-lozanna-1» указывает на товар, который временно отключен. Остальные ссылки указывают на изображения из кэша сайта — страницы изображений вообще не должны участвовать в анализе, мы их отключали в самом начале. По этому пункту никаких действий предпринимать не будем. В данном случае все под контролем — происходит редирект с технического URL на ЧПУ, а затем на другой ЧПУ.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *