Поисковые системы оценивают качество и релевантность статьи по содержащимся в ней словам и словосочетаниям (коллокациям). Чем больше в тексте тематичных ключевых фраз, тем больше шансов, что он получит высокую оценку. Соответственно, если в тексте будет мало ключевых слов, но много «воды» — стоп-слов, вставных слов, шаблонных фраз, качество статьи будет низким. Но и слишком большое количество ключевиков — тоже плохо, такой документ получит отметку «переспам» и вряд ли будет показан в поисковой выдаче. Оценить эти показатели поможет сервис семантического анализа, который покажет процент ключевых слов и количество стоп-слов в тексте. Наш онлайн сервис показывает семантическое ядро текста страницы — все значимые и ключевые слова, что позволит оценить, по каким запросам она будет показываться выше после того, как проведет поиск ключевых слов в тексте. Также семантический анализ показывает все стоп-слова и грамматические ошибки. Классическая тошнота определяется по самому частотному слову — как квадратный корень из количества его вхождений. Важно! Максимально допустимое значение классической тошноты зависит от объема текста — для 20 000 знаков тошнота, равная 5, будет нормальной, а для 1000 знаков — слишком высокой. Академическая тошнота определяется как отношение самых частотных и значимых слов по специальной формуле. По тошноте текста можно судить о натуральности текста и его SEO-оптимизации под поисковые запросы. Высокий показатель тошноты онлайн для поисковиков является плохим знаком. Процент воды в Адвего определяется как отношение незначимых слов к общему количеству слов. То есть чем больше в статье значимых слов, тем меньше в итоге «воды». Чтобы уменьшить процент водности, необходимо почистить текст от широко распространенных фраз и терминов, вставных слов: «в современном мире», «так сказать», «всем известно» и т. п. Также повышает качество текста употребление специализированных терминов и профессиональной лексики.
Материал окажется полезным не только для владельцев сайтов, но и для менеджеров агентств, работающих по клиентским проектам. 2. Работа с ключевыми словами и внутренняя оптимизация. Наличие этого инструмента статистики на сайте позволит качественно проанализировать основные характеристики аудитории и более эффективно спланировать и организовать маркетинг бренда. Качественная работа над сайтом невозможна без регистрации в кабинетах упомянутых сервисов. Именно там можно узнать, какие факторы заметнее всего влияют на поисковый трафик сайта, убедиться в том, что ресурс хорошо индексируется поисковыми роботами, выявить наличие фильтров и др. Сделать это можно при помощи инструмента PageSpeed Insights. Показатель 85/100 будет удовлетворять требованиям Google к скорости загрузки сайта как на мобильных устройствах, так и на десктопе. В целом же, если время, отведённое на загрузку сайта, превышает отметку в 2 или 4 секунды, пользователи, скорее всего покинут ресурс. Важно убедиться в том, что CMS, обслуживающая сайт, оснащена всеми необходимыми SEO-плагинами, которые позволяют прописывать заголовки страниц, добавлять метаописания, теги для изображений, размечать уровни заголовков на страницах и т.д. Качественный плагин должен обеспечивать возможность форматировать текст на странице, адаптируя его к требованиям поисковых систем.
Неплохо зарекомендовал себя Yoast SEO для WordPress. Применение адаптивного дизайна обеспечивает хорошее юзабилити на всех устройствах. Как следствие, поисковые системы начинают лучше относиться к подобным сайтам. Бесплатный инструмент Xenu’s Link Sleuth поможет найти все битые ссылки и избавиться от них. Проверить упомянутые выше элементы на соответствие стандартам можно с помощью таких инструментов, как: HTML validator, CSS validator, mobile code validator. Работу по созданию файла Sitemap.xml для небольших сайтов заметно облегчит dynamic sitemap.xml generator. Он подойдёт сайтам, которые насчитывают не более 500 страниц. На следующем этапе важно подтвердить ссылку на файл в Google и Bing, используя соответствующие разделы Search Console и «Инструментов для вебмастеров Bing». Файл сообщает поисковым роботам о том, какие страницы важны для индексации, а какие индексировать не следует. 1. Грамотность использования структурированных данных для оформления расширенных сниппетов. 2. В отчёте «Оптимизация HTML» изучить все потенциальные проблемы, которые могут помешать сканированию и индексированию сайта. 3. Использовать инструмент «Удобство просмотра на мобильных устройствах» для выявления проблем с адаптивной вёрсткой. 4. В разделе «Ручные санкции» проверить, не наложены ли на ресурс меры наказания.
5. Проверить раздел «Заблокированные ресурсы», чтобы понять, какие ссылки на сайте были заблокированы от индексации поисковыми системами. 7. Используйте инструмент проверки файла Robots.txt, чтобы понять, не запрещает ли файл robots.txt роботу Googlebot сканировать определенные URL на сайте. Чтобы отыскать 301 и 302 редиректы на сайте, полезно использовать инструмент Screaming Frog. Сервис позволяет бесплатно просканировать до 500 URL. На этом этапе важно не просто проверить настройки сервера, но и убедиться в качестве хостинга, а также обратить внимание на репутацию располагающихся на нём сайтов. Сомнительное соседство способно в один миг обесценить все усилия по продвижению ресурса. Специальный инструмент позволит произвести быструю проверку по IP сервера. Показатель 85 и выше, по данным инструмента Google Page Insights, — это хорошо. Однако важно понимать, как ресурс будет справляться с высокой нагрузкой на него. Если при большом количестве посетителей скорость загрузки начнёт снижаться — сайт не только потеряет потенциальных посетителей, а бизнес — клиентов, но и начнёт хуже ранжироваться в поисковой выдаче. Инструмент ZebraTester позволит протестировать скорость сайта при заданной нагрузке на него.