Инструкция по полному SEO-аудиту сайта. Пошаговое руководство и полезные сервисы

Инструкция по полному SEO-аудиту сайта. Пошаговое руководство и полезные сервисы

Прежде чем приступать к работе над сайтом, нужно хорошо изучить его структуру, технические особенности, качество контента, а также другие факторы, которые влияют на его ранжирование: внешние ссылки, слабые места, юзабилити и другое. Только так можно разработать правильную стратегию продвижения, выявить возможные ошибки и устранить их.

Эта работа по анализу сайта называется SEO-аудитом. Делать SEO-аудит нужно регулярно, потому что постоянно меняются алгоритмы поисковых систем, требования к сайтам, могут возникать технические ошибки во время работы с сайтом и т.п.

Конечно же, проще всего прибегнуть к услугам профессионалов и заказать SEO-аудит. Но с этой работой вы можете справиться и сами, изучив это руководство и используя указанные тут инструменты. Научиться делать аудит сайта вам будет полезно и для общего развития, и для самостоятельного контроля работы сайта.

Итак, приступим к SEO-аудиту!

1. Подготовительный этап

С самого начала вы должны проанализировать общую информацию о сайте, понять положение дел на данный момент. Для этого  вы можете использовать стандартные, бесплатные сервисы: Яндекс.Вебмастер или Google Webmaster Tools.

Собрать информацию о картинках, контенте, ссылках (внутренних и внешних) вам также поможет такой инструмент, как Screaming Frog SEO Spider.

2. Внутренний аудит

Внутренний аудит сайта состоит из нескольких важных этапов.

Технический аудит

С самого начала нужно проанализировать файл Robots.txt. Он находится в корневой папке сайта, и содержит инструкции для поисковых роботов касательно индексации сайта.

Прописав различные директивы в этом файле, можно задать самые разные команды для поисковых роботов, например:

  • указать путь к карте сайта (sitemaps.xml), которая помогает проиндексировать сайт правильно;
  • разрешить или запретить роботам индексировать отдельные разделы и страницы сайта, а то и весь сайт полностью;
  • задать главное зеркало сайта;
  • снизить нагрузку на сайт, которая возникает от прихода поискового робота (если в этом есть необходимость).

Можно задать разные правила для разных поисковых систем.

Во время аудита проверьте, что от индексирования закрыты разделы, наличие которых в результатах поиска нежелательно: это технические страницы, страницы с низким качеством контента, страницы – дубликаты. Проверьте, открыты ли для индексации важные разделы и страницы. Проверить это вам помогут стандартные инструменты — Яндекс.Вебмастер и Google Webmaster Tools.

Карта сайта – Sitemap – это файл в формате XML, который добавляется в корневую папку сайта. Он предоставляет поисковым роботам информацию о том, какие страницы есть на сайте, какие нужно проиндексировать в первую очередь, и как часто они обновляются.

Корректность этого файла (если он есть) можно с помощью валидатора, например, такого как Markup Validator . Он помогает найти и устранить неточности и ошибки в коде, которые могут влиять на ранжирование сайта. Есть специальные инструменты в Яндексе и Гугле. Еще один важный технический момент – файл должен быть размером не больше 10 МБ и содержать не более 50 тысяч ссылок. Если размер больше – можно создать отдельные карты, и собрать их воедино в файл Sitemap Index со списком всех карт.

Если карты нет – ее нужно создать. Есть для этого специальные инструменты и плагины для систем управления контентом. После создания карты нужно сообщить поисковым системам о том, что она у вас есть. Добавьте путь к карте в robots.txt, а также залейте в сервисы для вебмастеров.

Оценка качества индексирования сайта

Следующий этап – проверка, какие именно страницы проиндексированы и как они выглядят в результатах поиска.

Введите в поисковую строку команду site:example.com, (вместо example.com укажите адрес сайта). Эта команда ограничивает зону поиска только одним доменом. Вы увидите, какое количество страниц попало в индекс поисковой системы.

Сравните это число с общим количеством страниц на сайте. Если числа практически одинаковы, значит, сайт хорошо проиндексирован. Если проиндексировано меньше – возможно, сайт попал под санкции, или от индексации закрыто очень много страниц. Если проиндексировано больше, чем есть – это свидетельствует о наличии дублей.

Подобную статистику вы можете собрать и в Google Webmaster Tool. Зайдя в сервис, вы увидите график, который показывает статистику индексации страниц за последний год. Если количество проиндексированных страниц постоянно увеличивается, значит, все хорошо: новый контент индексируется и добавляется базу Google.

Но это общая информация. Если нужно узнать подробности – нажмите кнопку «Расширенные данные». Она откроет новый график, по которому видно, сколько страниц просканировано за весь период, какие страницы заблокированы в файле robots.txt, и какие не попали в индекс вообще.

Анализ кодов состояния HTTP

Код состояния HTTP  представляет собой часть первой строки ответа сервера при запросах по протоколу HTTP. Это целое число из трех цифр, которое показывает текущее состояние страницы. Самые известные коды:

404 – страница не найдена;

503 – внутренняя ошибка на сервере;

200 – все нормально, страница работает корректно.

Если на сайте есть редиректы, то есть переадресация с одной страницы на другую, то  это должны быть 301 редиректы, а не 302.

Проверить коды состояния HTTP можно с помощью стандартных сервисов вебмастера – Яндекс и Гугл, а также специальным инструментом Monitor Backlinks

Анализ URL страниц сайта

К URL страниц тоже есть определенные требования. Их длина не должна превышать 100-120 символов, и состоять URL должен из простых, легко читаемых слов, содержать ключевые слова. Это не только важный фактор для лучшего индексирования – это дополнительное удобство для пользователей.

Скорость загрузки сайта

Медленные сайты не любят не только пользователи. И поисковых систем тоже есть свои требования к скорости загрузки страниц. Быстрый сайт лучше индексируется, количество отказов у него меньше.

Лучше всего проанализировать скорость загрузки сайта можно с помощью инструмента Google PageSpeed Insights. Еще есть его аналог —  YSlow.

Если нужно ускорить сайт – следуйте рекомендациям, которые будут приведены прямо в сервисе под анализом скорости сайта. Чаще всего это оптимизация изображений, сокращение кода JavaScript, включение кэширования в браузере и т.п.

3. Анализ структуры сайта

Очень важный параметр – это структура сайта. Проанализировать надо архитектуру ресурса и внутреннюю перелинковку.

Архитектура сайта

Структура страниц сайта должна быть четкой, понятной, логичной. Подкатегории сайта должны быть упорядочены, и связаны между собой внутренними ссылками.

Идеально, когда к любой странице сайта можно добраться максимум за три клика от главной.

Такая структура будет простой и понятной для пользователей, им будет проще найти нужную информацию, а это хорошо влияет на продвижение. Еще один плюс — поисковые машины быстрее будут индексировать страницы сайта

Такая простая для посетителя архитектура сайта позволит поисковым машинам быстрее проиндексировать все страницы сайта, а посетителям поможет не заблудиться и быстро найти нужную информацию, что, в конечном счете, тоже положительно повлияет на SEO.

Из плохих решений: использование меню, созданного на Flash и JavaScript. Они плохо влияет на продвижение, даже не смотря на эволюцию поисковых систем.

Внутренняя перелинковка

Если страницы сайта связаны между собой внутренними ссылками, это помогает лучшему индексированию сайта, разумно распределяет вес страниц.

Определить, как обстоят дела с внутренней перелинковкой, поможет инструмент для прогнозирования и распределения веса страниц Page Rank Decoder.

К внутренней перелинковке есть несколько простых требований:

  • анкорами должны быть не только ключевые слова, но и разные другие: здесь, тут, скачать, ознакомиться и т.п. Это делает ссылочную массу более натуральной, естественной, в то время как большое количество ключей будет выглядеть подозрительно.
  • анкоры и страницы, на которые идет ссылка, должны быть релевантны между собой
  • больше всего ссылок должно идти на те страницы, которые должны занять более высокие позиции.
  • ссылайтесь на важные страницы с главной.
  • не злоупотребляйте ссылками, на одной странице не должно быть их слишком много.

4. Проверка контента

Самая трудоемкая часть аудита – это анализ контента. Обратите пристальное внимание на следующие параметры.

Заголовки страниц

Заголовок страницы влияет на принятие решения посетить ваш сайт. Это первое, что видит посетитель на странице выдачи поисковой системы. Оптимизации заголовков нужно уделить пристальное внимание.

Заголовок не должен быть длинным – оптимально 70-90 символов, в противном случае его просто обрежет в результатах поиска, а также в соцсетях.

Также заголовки должны четко описывать содержание страницы, и включать в себя ключевые страницы, желательно ближе к началу. Но старайтесь сохранить читабельность и человеческий вид заголовка. Все заголовки на сайте должны быть уникальными. Проверить это можно в Вебмастере Гугла.

Описание страниц

Описание страницы может быть включено в сниппет на поисковой выдаче. Поэтому нужно с умом управлять их содержанием.

Оптимальная длина описания – 150-160 символов. Описание должно быть небольшим связным текстом, которое описывает содержание страницы, но не набором ключевых слов.

Каждая страницы должна иметь уникальное описание. Выявить дубли можно в том же Вебмастере от Гугла.

Ключевые слова в мета-тегах

Сегодня все поисковые системы их игнорируют, так что добавлять сюда ключи нет смысла. Так вы только покажете конкурентам, по каким ключам продвигаетесь.

Наполнение сайта

Тексты на сайте должны быть написаны для людей, а не для ключей. Эта истина, это правило действует уже несколько лет во всех поисковых системах. Бредотексты , написанные только для того, чтобы вписать в них ключи, только загонят сайт под фильтр.

Проверьте, все ли тексты на сайте интересны и полезны для читателей. Каждая страница должна отвечать следующим параметрам:

  • текст объемом не менее 300 слов;
  • контент уникальный, а не скопированный с сайтов конкурентов;
  • тексты не переспамлены ключами.

Для наполнения сайта вы можете использовать сервисы – биржи контента, например ContentMonster или Webartex. Тут работают копирайтеры, которые напишут уникальные тексты для сайта, а сама биржа следит за качеством контента. На Webartex есть и вебмастера, которые разместят ссылки на ваш сайт на надежных площадках.

Проверить текст на уникальность можно с помощью Content-Watch и Advego Plagiatus. Оба сервиса бесплатны, и находят совпадения между вашим текстом и текстами в сети. Показывает не только процент уникальности, но и источники.

В каждом тексте должны быть ключевые слова – желательно ближе к началу. Но при этом не нужно писать предложения только ради этого ключа – логика текста должна быть понятной, структура – логичной. Ключи не должны цеплять глаз читателя. Они обязаны быть незаметными в тексте.

Тексты должны быть грамотными, без ошибок. Статьи и ошибками не могут занять высокие позиции в поиске, да и людям неприятно читать такое. Это кроме всего прочего говорит о вашем непрофессионализме. Проверить текст на ошибки помогут такие сервисы, как Орфограф, проверка орфографии от Яндекс.Вебмастер. Последняя очень полезна для тех, кто использует неологизмы – Яндекс подскажет, как записать новые слова правильно, так, чтобы поисковый робот опознал их.

Дублированный контент

На самом сайте, так как и за его пределами, не должно быть одинаковых страниц, то есть страниц с дублированным контентом. Поисковая система не может определить, какую именно страницу нужно индексировать и показывать на выдаче.

От дублей нужно избавляться. А появиться они могут:

  • из-за технических проблем в CMS сайта. Некоторые из них могут создавать одни страницы с несколькими ссылками.
  • из-за динамических URL, когда сама формируется вторая часть ссылки, которая может меняться в зависимости от разных параметров.
  • если контент сайта часто воруют без указания источника, то есть ссылки на ваш сайт. Тогда поисковая система не может определить, кто разместил материал у себя первым.

Оцениваться, как дубли, могут и версии страниц для печати.

Находить страницы с одинаковым описанием и заголовком умеет Google Webmaster Tools. Проверьте список дублей и примите меры по их устранению.

Дубли можно просто удалить, и создать 301редирект. Можно запретить их индексацию в файле robots.txt. Это самые простые и проверенные способы решения проблемы.

Заголовки внутри текста

Текст на страницах должен быть отформатирован надлежащим образом. Важные моменты можно выделить жирным и курсивом, чтобы сфокусировать на них внимание читателя. Используйте подзаголовки, чтобы структурировать информацию.

Идеальная схема использования заголовков на странице следующая:

  • один заголовок первого уровня (Н1);
  • два-три заголовка второго уровня (Н2).

Заголовки меньшего ранга используются очень редко, но при необходимости вы можете вложить и их (Н3, Н4).

Будьте аккуратны, и не злоупотребляйте выделением слов и подзаголовками, от текста не должно рябить в глазах. Если использовать в подзаголовках ключевые слова – это поможет поисковому ранжированию, но думайте прежде всего о читабельности текста, его легком восприятии читателями.

Изображения

Пользователи ищут не только текстовую информацию. Многие из них ищут картинки, связанные с темой, и это еще один шанс привести дополнительный трафик на сайт.

Но для этого нужно оптимизировать свои изображения для поиска.

Для поиска самые главные атрибуты картинок это ALT и Title. Обязательно нужно заполнять их, когда заливаете картинку на сайт – это позволяют сделать все современные CMS.

Проанализируйте важные изображения на сайте, которые связаны с окружающим их текстом. Что картинка хорошо индексировалась, ALT и Title должны содержать описание того, что изображено на картинке, желательно с употреблением ключевого слова. Описание картинки не должно быть длинным, масимум – 150 символов. Слова в имени файла нужно разделять дефисами.

Используйте уникальные картинки, подходящие по смыслу, и хорошего качества. Взять картинки для статей можно на фотостоках, в том числе бесплатных – Pexels  или Pixabay.

Изображения часто вносят свою лепту в долгую загрузку сайта. Поэтому не используйте картинки большого размера, оптимизируйте их сразу в редакторе или с помощью специальных программ.

5. Аналитика сайта

Чтобы занимать высокие позиции в результатах поиска, нужно отслеживать и улучшать метрики сайта. Вам на помощь придут специальные инструменты:

Seopult.ru – специальный сервис для автоматизированного продвижения сайта, который дает рекомендации по продвижению, поможет закупить ссылки.

MegaIndex, кроме всего прочего, дает счетчик посещаемости, поможет составить семантические ядро и проанализировать конкурентов. Seolib.ru автоматически мониторит изменения позиций сайта в выдаче всех поисковых систем, поможет найти и исправить возможные ошибки оптимизации. А проаналиировать данные о посетителях, выделить полезных и ботов поможет BotScanner.

И конечно же, не забывайте о старых знакомых – Аналитике от Гугла и Яндекс.Метрике.

С помощью регулярного SEO-аудита вы сможете вовремя находить и исправлять ошибки на сайте, и как следствие — повышать свои позиции в поиске. Старайтесь сделать сайт более дружелюбным не только для поисковых систем. Но и для пользователей в первую очередь. Удобный, интересный ресурс всегда будет ранжироваться выше.

Узнать интересные фишки о продвижении и прочесть более подробно о различных нюансах вы можете в моей группе ВК.

А если хотите научиться профессионально продвигать сайты – изучите мой авторский курс по SEO-продвижению.

Услуги и цены

За что нас ценят клиенты

Обратная связь

Четко, оперативно, по делу

Ваше имя

Ваш e-mail

Ваш телефон

Адрес вашего сайта

Укажите регион продвижения, основное направление деятельности, список основных товаров или услуг, проблемы и задачи


Вступайте в нашу группу!

© 2009 - 2017 Алексей Лазутин. Перепечатка и использование материалов с данного сайта, разрешена только по согласию с владельцем. Владелец оставляет за собой право воспользоваться 146 статьей УК РФ при нарушении авторских и смежных прав.
Политика конфиденциальности