Анализ согласно ресурсу Sitereport

Общие сведения

1.Запуск проекта на анализ

Запускаем проверку проекта по параметру “До 10 000 страниц”


(saitreport.ru)


10 000 страниц - это оптимальный показатель который поможет Вам ничего не упустить и получить достаточное количество данных для анализа и в тоже время, не заставит ждать выполнение отчета в течении слишком долгого времени.



2. Полученный отчет

Полученный анализ содержит 15 отдельных отчетов, мы будем использовать не все, так как часть данных анализируется другими инструментами.


Документы, формирующиеся в ходе работы:


Техническое задание - общее по всем, найденным в ходе работы ошибкам

Проверяемые параметры и составление отчета


Как уже было сказано - использовать отчеты мы будем не все.


  1. Отчет - Общая диагностика


  • В нем проверяемый параметр “Безопасность”



  • Также из данного отчета выносим параметры


Доступность robots.txt

Доступность Sitemap.xml

Корректность 404 ответа (несуществующие страницы):

2. Отчет - Загрузка

  • Проверяем корректность настройки robots.txt для этого используем


Надо проверить, во-первых, нет ли там страниц продвигаемых, с другой стороны не открыт ли всякий мусор. В отчете, который приведен в качестве примера, написано, что нет заблокированных страниц, но выгружены также страницы сортировки, хотя написано, что Robots.txt ничего не закрывает, поэтому на данном этапе необходимо еще раз проверить, закрыты ли необходимые страницы и не закрыты ли важные.

  • Проверяем корректность кодов ответа, наличие 4хх, 5хх и 301 редиректов


Для того, чтобы получить полную картину идем в графу “Экспорт данных”

Скачиваем общую таблицу

  • Коды ответа


В таблице можно отфильтровать коды ответа после чего необходимо сделать вывод



Отдельно необходимо проверить корректность редиректов, которую можно отследить также в этой таблице




При наличии битых ссылок или 500 ошибок все понятно. Стоит обращать внимание на то, что 500 страница могла отдавать в момент скачивания ее краулером - поэтому если в выгрузке не много таких страниц - необходимо описать ситуацию, если же 500 много, скорее всего это проблема сервера. Также в случае с редиректом стоит обратить внимание, проблема может быть в том, что настраивался редирект, а в навигации стоят ссылки без редиректа. Как в данном примере, настраивался редирект на страницы со слешом на без слеша, а в навигации по сайту присутствуют ссылки все еще со слешом. В Сайтрепорт можно отследить источник ссылки с 301 или 404 - все необходимо описывать в ТЗ.


  • Проверка глубины вложенности



Нам важно, чтобы страницы были до 4 уровня вложенности, если встречаем другие уровни вложенности - создаем карты сайты HTML или XML, для этих типов страниц и ставим статус в сводной таблице.


  • Проверка ресурсов на которые ссылается сайт


Проверка производится в отчете “Диагностика” - “Текстовый отчет”



Проверяем ссылки - делаем вывод, если необходимо закрыть или удалить ссылки - вносим это в ТЗ.


3. Отчет - Анализ контента на сайте

Для анализа контента также в экспорте данных скачиваем общую таблицу в графе “Контент” и фильтруем по данным



  • Проверка Rel=Canonical


Сортируем выгрузку по наличию тега canonical, после чего делаем вывод



Согласно нашим рекомендациям, rel=canonical должен находится только на сортировке, поэтому проверяем какие страницы содержат этот тег и составляем соответствующие рекомендации в ТЗ

  • Проверка страниц “Похожие”

Отображаем страницы “Похожие” - это те страницы, у которых сходство до 80%



При обнаружении страниц - составляем при необходимости ТЗ.

  • Проверка страниц “Очень похожие”

Выбираем отобразить только “Очень похожие” и проверяем что это за страницы.



Важно сделать правильный вывод на основании всех этих данных. Вы можете обнаружить очень похожие страницы, но это не будет являться проблемой, если на сайте на разных страницах одинаковые карточки товара. К примеру, если страница очень похожи из-за дублирования мета-данных и текста - это проблема, также этот инструмент может помочь найти страницы, которые из-за функционала сайта дублируют контент - это могут быть дополнительные страницы блога, отзывов, технические и архивные страницы.


  • Проверка страниц “Почти дубликаты”

С помощью той же сортировки выбираем в данном отчете страницы, “Почти дубликаты”, что поможет нам, также как в предыдущих отчетах, увидеть страницы попадающие под данный критерий. “Почти дубликаты” для Sitereport - это страницы со сходством более 90 %. Как и в предыдущих случаях, необходимо определить природу этой проблемы и предоставить решение или обоснованный ответ.


  • Проверка страниц “Дубликаты”

Логика проверки соответствует предыдущим.


  • Проверка грамматических ошибок

Проверяем наличие грамматических ошибок на сайте


Стоит обратить внимание на то, что во-первых, сервис Сайт-репорт может выделять как ошибки слова, которые ему неизвестны, но если Вы видите, что выделено нормальное слово, вполне вероятно, что есть какая-то проблема. К примеру, слово “свадебный” если будет начинаться с английской “С” или содержать “е” не русскую - он воспримет это как ошибку. Следовательно Вы можете отследить на данном этапе корректность кодировки на сайте.


Пример, слово “Аквамарином” выделено как ошибка

вбиваем в поисковую строку, видим, что Google не воспринимает это слово, значит есть проблема.



По итогу указываем вывод. Если грамматические ошибки найдены в контентных блоках сайта - делаем ТЗ. Если в текстах - указываем, что исправления будут выполнены при работе с текстами. Например, через Seo-shield


4. Четвертый отчет - корректность использования тегов на сайте, анализ текста


  • Проверка на пустые теги Title

Выбираем необходимый для отслеживания параметр в отчете


  • Проверка пустых тегов Descriptions


Выбираем тем же путем необходимый тег. Стоит помнить о том, что на части страниц отсутствие тега - это нормально и правильно. По этой причине просматриваем страницы, которые предоставлены в качестве примера формулируем вывод.


  • Проверка дублирования тега Title


Следующий параметр “Дубликаты”. Из-за использования формул генераций могут возникнуть дубликаты, однако, это не всегда оправдано. Дубликаты могут встречаться в тестовой заглушке на служебных страницах. Но на сайте может быть множество одинаковых карточек товара и другие случаи, когда дублирование тега Title может иметь негативное влияние. Необходимо при надобности дополнить формулы, которые создают дублирование или убрать страницы, где Title некорректный. Например, есть вероятность, что по шаблону формулы могут быть внедрены на технические страницы сайта “Вход в админ панель”, “Личный кабинет” и так далее - это необходимо исправлять.


  • Проверка дублирования тега Descriptions


Та же логика, что и в предыдущем пункте


  • Проверка тегов форматирования <b>, <Strong>, <EM> ,<I>


По всем перечисленным тегам составляем отчет в сводной таблице с выводом. Использование данных тегов может быть как в структуре сайта и его контентных блоках, так и в текстах. Если проблема в текстах - указываем, что тексты будут отформатированы в сервисе Seo-Shield (если он подключен) и формируем соответствующую задачу в плане работ по проекту. Если теги используются в структуре сайта - составляем ТЗ на исправление верстки. Необходимо также обратить внимание на то, находятся ли теги в области, которую сканирует робот. То есть, если Вы обнаружили теги - просканируйте страницу через “Просмотреть как Google bot” для того, чтобы проверить видит ли данные теги робот.


  • Проверка тегов форматирования <H1-6>

На сайте должны присутствовать только Н1 заголовки на страницах и Н2 в текстах, все остальные заголовки должны быть убраны. Если эта проблема в текстах - исправляем тексты в Seo-Shield, если в верстке готовим ТЗ. Необходимо также проверить, находятся ли эти заголовки в доступности для робота.


  • Анализ текста

Необходимо проверить релевантность употребляемых на сайте слов, для этого на вкладке отчета “Текст” смотрим самые плотные слова на сайте.


5. Корректность настройки индексации сайта


Проверяем отчет “Метрики и индексация” в первую очередь смотрим, какие страницы закрыты в Robots.txt, какие закрыты блоками noindex, nofollow.



Выгрузив все страницы, можно настроить фильтр, чтобы отследить страницы закрытые в noindex


6. Составление файла по итогу проверки

По итогу проверки формируется техническое задание

Подписаться Подписаться Подписаться