Чек-лист технического SEO-аудита сайта

Цели и задачи технического аудита

Цель технического SEO-аудита сайта заключается в выявлении и исправлении технических ошибок, которые могут негативно влиять на его поисковую видимость и ранжирование в поисковых системах.

Содержание
show

Основные задачи аудита включают в себя:

  1. Выявление ошибок индексации: проверка файла robots.txt и файла sitemap.xml на наличие ошибок, установка правильных директив для индексации страниц.
  2. Анализ структуры URL: проверка на наличие читаемых, информативных и оптимизированных URL-адресов, а также исключение дублирующихся URL.
  3. Оптимизация скорости загрузки страниц: анализ скорости загрузки сайта и его отдельных страниц, выявление причин медленной загрузки и предложение мер по их улучшению.
  4. Проверка мобильной совместимости: убедиться, что сайт корректно отображается и функционирует на мобильных устройствах, и оптимизирован для мобильных поисковых запросов.
  5. Проверка структуры сайта и внутренней перелинковки: анализ структуры сайта и его внутренней перелинковки для обеспечения удобства навигации как для пользователей, так и для поисковых роботов.
  6. Проверка наличия и оптимизация мета-тегов: убедиться в наличии релевантных мета-тегов (title, description, keywords) на каждой странице сайта, а также их оптимизация для ключевых слов и фраз.
  7. Проверка безопасности сайта: анализ наличия защиты от взлома, проверка наличия SSL-сертификата, устранение уязвимостей и предотвращение вредоносных атак.
  8. Анализ кода и структуры HTML: проверка правильности разметки HTML-кода, исправление ошибок и оптимизация для лучшего восприятия поисковыми системами.
  9. Проверка наличия ошибок 404 и перенаправлений: выявление и исправление битых ссылок, а также настройка правильных редиректов для перенаправления посетителей с устаревших страниц на актуальные.
  10. Анализ внешних факторов: оценка влияния внешних факторов (например, обратных ссылок) на SEO-показатели сайта и предложение мер по их оптимизации.

Технический SEO-аудит является важным этапом оптимизации сайта, который помогает повысить его поисковую видимость, улучшить пользовательский опыт и увеличить количество органического трафика.

Чек - лист технического аудита

Для выполнения некоторых пунктов аудита, необходимы доступы к Яндекс Метрике, Google Analytics, Яндекс Вебмастер, Google Search Console.

В отчете показываем несколько примеров из выгрузки, а полный вариант выгрузки (например, полный список страниц с 404-ответом или список всех страниц с дублирующимся тайтл) загружаем на Гугл Диск и даем ссылку для ознакомления.

1. Анализ наличия Яндекс Вебмастер

Довольно часто клиенты выдают доступ к вебмастерам на наш аккаунт. Несмотря на это, при заходе в вебмастер эти сайты не отображаются до тех пор, пока не добавим вручную. Если после добавления вручную требуется подтверждение прав, это уже является ошибкой клиента (не расшарены права на аккаунт).

Заходим в Вебмастер https://webmaster.yandex.ru/ и находим наш сайт.

Проверяем основные ошибки:

Диагностика в Вебмастере

2. Анализ наличия Google Search Console

Google Search Console

3. Проверка счетчиков Яндекс Метрики и Google Analytics

«Яндекс Метрика» — бесплатный интернет-сервис компании Яндекс, предназначенный для оценки посещаемости веб-сайтов и анализа поведения пользователей.

Как проверять:

  1. Вручную.

Заходим на главную страницу сайта и ищем в коде страницы “metrika”. Счетчик должен располагаться в body и быть единственным. 

Скриншот кода с метрикой
Так выглядит код GA
  1. С помощью расширение для браузера - Wappalyzer.

Расширение - Wappalyzer - показывает системы аналитики, установленные на сайте

Скрин с расширением Wappalyzer, который показывает все системы аналитики

4. Проверка наличия файла robots.txt

Как проверять:

  1. Вручную.

На сайте ищем файл по адресу domain.ru/robots.txt.

  1. Через вебмастерку - https://webmaster.yandex.ru/tools/robotstxt/

Смотрим:

  • Настроен ли он под разных User-Agent (*, Googlebot, Yandex и т.д.)
  • Есть ли ссылка на sitemap, рабочая ли она, находится ли в конце robots.txt
  • Проверяем через https://webmaster.yandex.ru/tools/robotstxt/ очевидные урлы вроде корзины, сравнения, избранного и т.п.
  • Директива “Host:” больше не поддерживается в файле роботс
  • Проверяем роботс у поддоменов, особенно смотрим на ссылки sitemap, если есть
  • Настроен Clean-param для Яндекса и закрыты для индексации страницы с Get-параметрами для Google и остальных поисковиков

Добавляем в отчет текущий вид файла, затем пишем рекомендации. В т.ч. рекомендуем добавить Robots.txt и sitemap.xml в вебмастер Яндекс и Гугл.

Пример настроенного файла robots

https://rozetka.com.ua/robots.txt

Пример файла robots

5. Проверка наличия sitemap.xml

Как проверять: 

  1. Вручную.
  2. Расширение - SEO META in 1 CLICK.
  3. Screaming Frog.

На что обратить внимание:

  • в сайтмап не должно быть дублей, битых и мусорных ссылок; 
  • карта сайта должна содержать в себе все страницы, которые разрешены к индексированию поисковыми системами, как в CMS Ядре сайта, так и в robots.txt.;
  • карта сайта должна обновляться по cron'у и автоматически изменять параметры;
  • карта сайта всегда должна быть актуализирована для поисковых ботов;
  •  карту сайта должны автоматически добавляться новые url адреса посадочных страниц, которые разрешены к индексированию.

Находим сайтмап удобным способом. Чаще всего он указан в роботс. Иногда он находится по адресу domain.ru/sitemap.xml, но это не обязательно. Можно увидеть его через плагин, например SEO META in 1 CLICK:

SEO META in 1 CLICK показывает наличие карты сайта sitemap.xml 

Если в сайтмапе пусто (или очевидно мало ссылок), рекомендуем настроить генерацию и актуализировать файл.

Кроме того, проверяем файлы через https://webmaster.yandex.ru/tools/sitemap/.

Если на первый взгляд неясно, все ли ссылки есть в сайтмап, парсим сайт (можно делать это на следующих этапах, когда парсинг понадобится для других целей) и сравниваем количество 200 страниц из парсинга и суммарное количество страниц из всех файлов сайтмап (не забываем, что их может быть несколько). 

Анализ карты сайта в https://webmaster.yandex.ru/tools/sitemap/ 

Если количество сильно разнится, скорее всего не все страницы есть в сайтмап или, наоборот, в сайтмап много лишних страниц. Описываем проблему и рекомендуем настроить корректную генерацию и актуализировать файл.

Также можно скопировать адреса из всех сайтмап и пропарсить код ответа. Если где-то код ответа страницы 3хх или 4хх, даем рекомендацию удалить такие ссылки из карты сайта.

Получить список урлов из сайтмап можно в Screaming Frog (Список URL - загрузить из Sitemap).

Парсинг sitemap в Screaming Frog

Нажимаем OK и происходит парсинг страниц в sitemap

6. Хлебные крошки

Как проверять:

Вручную.

«Хлебные крошки» являются очень полезным элементом на сайте, это своего рода меню вложенности. Пользователь легко может понять в каком разделе он находится или быстро перейти в другой.

«Хлебные крошки» важны и для поисковых роботов. Если разметка составлена хорошо, «хлебные крошки» могут появиться в выдаче Яндекса и Google. Благодаря чему сниппет сайта в поисковой системе выглядит уникальнее. Увеличивается CTR сниппетов, соответственно сайт получит больше переходов.

Вид «хлебных крошек» в поиске Google

7. Мета-теги noindex, nofollow, canonical

Как проверять:

  1. Вручную.
  2. Расширение - Alaev SEO Tools.

Заходим на страницы пагинации категорий и фильтров (вариант — посмотреть в результатах парсинга). 

Смотрим, как у них прописаны noindex, nofollow, canonical и есть ли вообще.

Пример ошибки в каноникале фильтра (при этом страницы пагинации фильтров открыты к индексации и передаче статического веса, так как содержат тег index и атрибут follow - рекомендуем исправить):

Проверка индексации сайта в расширении Alaev SEO Tools

8. Тег <noindex></noindex>

Тег <noindex> — размещаемый в HTML-коде странички тег, который запрещает боту поисковой системы Яндекс индексировать часть текста (заключенную внутри него). Тег noindex  Яндекс ввел по собственной инициативе, которую до сегодняшнего дня разделяет лишь Рамблер.

Google не будет обращать на него внимания.

Довольно часто встречающаяся в сети конструкция rel=«noindex» является ошибочной, поскольку это не атрибут, а тег.

Использование тега noindex приводит к тому, что валидация сайта будет содержать множество ошибок в коде. Причина все та же: среди тех, кто понимает тег noindex — только Яндекс. Кроме того, этот тег не является стандартизированным.

Но выход все же есть. Для того, чтобы исключить ошибки, связанные с использованием этого тега, существует вариант его написания, который устраивает абсолютно всех: <!--noindex--> <!--/noindex-->. В этом случае тег будет распознан Яндексом, другие поисковики не обратят на него внимания, а проверка кода не будет воспринимать его, как ошибку.

Когда используется: 

  • Когда нужно спрятать не уникальный текстовый контент. Цель — скрыть неявные дубли на посадочных страницах, которые повторяются. Например, блок доставки в товарной карточке или блок гарантий.
  •  Закрыть от глаз поисковых роботов коды различных счетчиков.
  •  Убрать из индексации текст, который слишком часто меняется и его добавление в индекс бессмысленно.

9. Индексируемость контента на страницах сайта

Как проверять:

Вручную

Вставляем в Google кусок текста со страницы в кавычках. Если страница находится, то все хорошо. Если страница не находится по куску текста в кавычках, то необходимо проверить, что мешает индексации контента.

Поиск по отрывку текста в кавычках в Google

10. Определение главного зеркала

Как проверять:

  1. Вручную.
  2. Яндекс Вебмастер.
  3. Screaming Frog.

Зеркала — точные копии сайта, доступные по разным URL. Поскольку по двум адресам обычно доступен одинаковый контент, поисковые системы признают их зеркалами и склеивают. Термин «склейка» значит, что в поиске участвует только один ресурс. Поисковики могут выбрать основной домен или главное зеркало автоматически.

Определяем главное зеркало (его обычно видно при парсинге и при просмотре выдачи яндекса по данному домену). Указываем, какие неглавные зеркала есть у сайта и настроен ли с них редирект на главное. Узнать, какой домен является главным зеркалом вашего сайта, можно в Яндекс Вебмастере. Для этого добавьте в свой аккаунт необходимые домены. Те из них, которые поисковая система уже считает зеркалами, будут сгруппированы. Главное зеркало всегда отображается на первом месте. Если у вас отображается только один домен, значит зеркал у вас нет.

Если сайт уже ранжируется и имеет трафик, то в качестве основного нужно выбирать то зеркало, которое ранжируется в поисковых системах.

Не должно быть дублей  с index.php, index.htm, index.html, index.asp, со слешем / или без слеша /.

11. Безопасный протокол работы сайта

Как проверять:

Вручную.

Протокол HTTPS (HyperText Transfer Protocol Secure) — защищённый протокол HTTP для защиты передачи данных. Данные шифруются с помощью SSL/TLS.

12. Наличие технических дубликатов

Как проверять:

Screaming Frog.

  • Парсим сайт удобной программой и делаем выгрузки: дубликаты тайтл, дубликаты дескрипшн, пустые тайтл и пустые дескрипшн. 
  • Даём ссылки на выгрузки (их размещаем в отдельных таблицах на Гугл Диске). 
  • Приводим примеры, почему возникли дубли (напр. в карточках товаров title не генерируются по названию товара). 
  • Даем рекомендации, как исправить.

Дубли и пропущенные тайтлы в программе Screaming Frog

Дубли и пропущенные дескрипшены в программе Screaming Frog

Дубли и пропущенные заголовки h1 в программе Screaming Frog

13. Анализ поддоменов сайта

Как проверять:

  1. Вручную.
  2. Screaming Frog.

Наличие региональных поддоменов является сигналом для поисковых систем о надёжности компании, поэтому рекомендуется по возможности расширять бизнес на несколько регионов и создавать региональные поддомены.

Перечисляем найденные поддомены. Смотрим, уникализированы ли у них sitemap, robots, мета-теги, контакты, seo-тексты и прочая информация, которая могла продублироваться. 

14. Спамные блоки в HTML

Как проверять:

Вручную.

Проверяем на наличие, если есть — рекомендуем убрать.
Например, повторение кода.

15. Спамные блоки скрытого текста

Как проверять

Вручную.

Подробно о скрытом тексте: https://yandex.ru/support/webmaster/threats/hiddentext.html

Проверяем на наличие, если есть — рекомендуем убрать.

16. Битые ссылки

Как проверять

Screaming Frog.

Битая ссылка — ссылка на несуществующую страницу, документ, изображение. Переходя по битой ссылке пользователь, в лучшем случае, видит сообщение о том что страница не найдена. В худшем случае — служебную страницу сервера.

Делаем соответствующий отчет в Screaming Frog, даем ссылку на выгрузку. Даём рекомендации как исправить.

Выгрузка битых ссылок из Screaming Frog

17. Ссылки на страницы с 301 редиректом

Как проверять

Screaming Frog.

Ссылки на страницы с редиректом — это ссылки, которые ведут на страницы, куда пользователь будет перенаправлен с другой страницы сайта. Это важно исправлять, так как такие ссылки могут ухудшать пользовательский опыт, замедлять загрузку страницы и снижать релевантность контента для поисковых систем.

Выгрузка ссылок с 301 редиректом из Screaming Frog

18. Микроразметка

Как проверять:

  1. https://validator.schema.org/.
  2. https://search.google.com/test/rich-results
  3. https://webmaster.yandex.ru/tools/microtest/.
  4. https://search.google.com/search-console

Schema.org — это стандарт семантической разметки данных в сети, поддерживаемый Google, Bing, Yandex и Yahoo!.

Цель семантической разметки — сделать интернет более понятным, структурированным и облегчить поисковым системам и специальным программам извлечение и обработку информации для удобного ее представления в результатах поиска.

Скрин проверки микроразмети в сервисе https://validator.schema.org/ 

Скрин проверки микроразмети в сервисе https://search.google.com/test/rich-results.  

19. Корректность 404 кода

Как проверять:

Сервис - bertal.ru.

Несуществующие страницы должны отдавать 404 код и иметь соответствующий вид.

Скрин проверки кода ответа в сервисе

20. Корректность 200 кода

Как проверять:

Сервис - bertal.ru.

Проверить, если есть проблемы указать где и рекомендовать исправить.

Скрин проверки кода ответа в сервисе

21. Скорость ответа сервера/Использование кэша/Оптимизация изображений

Скорость загрузки сайта — очень важный показатель его работоспособности. Чем быстрее загружается сайт — тем больше времени пользователь сможет провести на ресурсе и глубже его просмотреть.

Также этот показатель интересен поисковым системам Google и Яндекс — это один из ключевых факторов ранжирования в поисковой выдаче. Каждый робот поисковой машины имеет определенное время на индексацию одного сайта. Чем быстрее сайт будет ему отвечать, тем больше страниц он сможет проиндексировать за один проход. Если же сайт отвечает медленно, то робот решит, что он перегружен и покинет его.

Полезные сервисы:

Скрины проверки скорости загрузки страницы в серсисе https://pagespeed.web.dev/   

Первая отрисовка контента (FCP) и первая задержка ввода (FID) - важные показатели скорости для Гугл в 2021. Подробно в официальной справке

Показатели Core Web Vitals:

Первая отрисовка контента (FCP) — время, которое затрачивается на загрузку первого контента на сайте (поисковая строка, фрагмент, блок текста или изображение).

Показатели:

  • высокая скорость — менее 1 с;
  • средняя скорость — от 1 до 2,5 с;
  • низкая скорость — более 2,5 с.

Первая задержка ввода (FID) — период времени от первого взаимодействия пользователя с сайтом (нажатие на ссылку, кнопку и т.д.) до реакции браузера на это взаимодействие.

Показатели:

  • высокая скорость — менее 50 мс;
  • средняя скорость — от 50 до 250 мс;
  • низкая скорость — более 250 мс.

Скорость загрузки основного контента (LCP) — он отмечает точку на временной шкале загрузки страницы, когда, вероятно, загрузился основной контент страницы. Быстрый LCP помогает убедить пользователя в полезности страницы.

Чтобы обеспечить хорошее взаимодействие с пользователем, сайты должны стремиться к тому, чтобы LCP составляло 2,5 секунды или меньше.

Совокупное изменение макета (CLS) — стабильный показатель Core Web Vital. Это важный, ориентированный на пользователя показатель для измерения визуальной стабильности , поскольку он помогает количественно определить, как часто пользователи сталкиваются с неожиданными изменениями макета.

Взаимодействие с следующей отрисовкой (INP) — это ожидаемая метрика Core Web Vital, которая заменит задержку первого ввода (FID) 12 марта 2024 года. INP оценивает скорость реагирования, используя данные из API синхронизации событий.

Время до первого байта (TTFB) — показатель для измерения времени установки соединения и скорости реагирования веб-сервера . Это помогает определить, когда веб-сервер слишком медленно отвечает на запросы. Хорошие значения TTFB составляют 0,8 секунды или меньше, а плохие значения — более 1,8 секунды.

22. Сравнение индексов в различных ПС

С помощью site:domain.com сравниваем количество страниц в индексах Яндекса и Гугла. Если они сильно отличаются, указываем это, ищем причины (например, много дублей в индексе) и даём соответствующие рекомендации.


23. Анализ валидности HTML

Валидация html — это проверка кода на наличие ошибок и вообще на его корректность, если говорить максимально просто. Такую проверку можно произвести с помощью практически любого html-валидатора, например https://validator.w3.org/.

Проводим анализ шаблонных страниц сайта (главная, категория, подкатегория, служебная страница (напр. доставка), блог, статья блога, корзина и т.д.). 

24. Alt у изображений

В отличие от атрибута title, заполненный атрибут alt у картинок более существенен для поискового продвижения. Он охотно индексируется ботами поисковиков и используется ими для определения содержимого обнаруженных изображений. Это важно как для улучшения релевантности страниц сайта, так и для привлечения на него дополнительного трафика из «Поиска по картинкам». Поэтому нужно помнить, что не заполняя атрибут alt изображений, вы лишаете свой веб-ресурс дополнительных пунктов рейтинга, которые вполне могли бы улучшить его позиции в выдачах поисковиков.

Парсим сайт и проверяем. При отсутствии рекомендуем заполнить. Прикрепляем выгрузку изображений без alt и страниц, на которых они располагаются.

Атрибут Alt:

  • должен быть содержательным и описывать картинку;
  • состоять из 3–5 слов, но не больше 250 символов (сложно описать картинку двумя словами);
  • по возможности содержать ключевой запрос;
  • не должен быть спамным.

25. Проблемы мобильной адаптации

В метрике смотрим отказы с мобильных. Также просто тестируем мобильную версию.

Указываем найденные ошибки, рекомендуем исправить.

26. Языковые версии

Если у сайта есть языковые версии, необходимо их проверить на адекватность:

  • как реализовано (подпапки/поддомены);
  • совпадает ли контент на основной версии и на языковой;
  • есть ли карта сайта для языковой версии;
  • открыта ли языковая версия для индексации;
  • rel=”alternate” и hreflang.

Подпишитесь на наш блог и телегам-канал, чтобы быть в курсе SEO-полезностей.

Добавить комментарий

Ваш адрес email не будет опубликован.