Елена Морозова работает техническим SEO-консультантом для SaaS-компаний. Она объясняет, почему устранение технических ошибок редко приводит к росту органического трафика.
Аудиты дают ложное ощущение контроля
Елена, почему после устранения всех ошибок из отчёта ничего не меняется?
Потому что аудит показывает техническое состояние, а не бизнес-приоритеты. Можно исправить 500 битых ссылок, но если они ведут на страницы без поискового спроса, эффекта не будет. Я встречала проект, где два месяца чинили редиректные цепочки на архивных статьях 2015 года. Трафик на эти страницы был 20 визитов в месяц.
Как правильно расставить приоритеты?
Сначала — анализ краулинга в логах сервера. Нужно понять, какие разделы сайта Google сканирует чаще всего, а какие игнорирует. Часто оказывается, что бот тратит 70 процентов времени на фильтры и пагинацию, а важные страницы обходит раз в месяц.
Проблема не в коде, а в архитектуре
Многие фокусируются на чистоте HTML, семантике, валидации.
Это хорошо, но вторично. Я работала с сайтом, где HTML был идеальным по W3C, но структура категорий требовала от пользователя 9 кликов, чтобы добраться до товара. GoogleBot вёл себя так же: терял интерес на третьем уровне вложенности.
То есть плоская структура всегда лучше?
Не всегда, но чем меньше кликов от главной до целевой страницы, тем выше шанс на частое сканирование. Три клика — это разумный максимум для большинства сайтов. Ещё важно количество внутренних ссылок на каждую страницу. Если страница получает только одну ссылку из категории, она для робота малозначима.
Robots.txt и sitemap.xml используют неправильно
Какие распространённые ошибки вы видите?
Люди блокируют в robots.txt то, что не хотят индексировать. Это не работает так. Если на страницу есть внешние ссылки, она может попасть в индекс даже при запрете сканирования. Правильно использовать noindex в meta или заголовках.
А что с sitemap?
Туда добавляют всё подряд, включая страницы с canonical на другие URL, страницы с noindex, редиректы. Sitemap должна содержать только канонические индексируемые страницы, которые реально важны для бизнеса. У меня был случай: сайт с 80 000 страниц в sitemap, из которых Google проиндексировал 4 000. Убрали лишнее, оставили 6 000 приоритетных — индексация выросла до 5 500.
