Indexability checker
Проверка canonical и noindex
Введите URL страницы. Инструмент покажет canonical, meta robots, X-Robots-Tag, redirect chain и первые правки, которые мешают странице удерживаться в индексе и ранжироваться как отдельный документ.
Быстрая проверка
URL страницы
On-page indexability
Что проверяет canonical/noindex checker
Инструмент создан для быстрой диагностики страниц, которые не индексируются, выпадают из поиска или ранжируются не тем URL. Он не пытается заменить полный аудит, а проверяет критичный слой: какой URL поисковик должен считать основным и не запрещена ли индексация на уровне HTML или заголовков ответа.
Приоритеты
Какие ошибки индексации исправлять первыми
Если страница не попадает в индекс или ранжируется не тот URL, нужно идти от самых жестких ограничений к более мягким. Сначала смотрят ответ сервера, затем noindex, затем canonical и уже после этого качество контента, внутренние ссылки и коммерческие сигналы.
Когда использовать
Проверка нужна до публикации, после миграции и при выпадении страницы из поиска
Инструмент полезен после запуска новых разделов, фильтров, пагинации, редизайна, замены CMS и массовых шаблонных правок. Если URL открывается в браузере, но не хочет держаться в индексе, сначала нужно проверить canonical и noindex, а не переписывать текст наугад.
Методика
Как правильно читать сигнал canonical и noindex
Canonical и noindex часто путают, хотя это разные механики. Canonical помогает поисковику выбрать основную версию документа среди похожих или дублей. Noindex не выбирает главную версию, а просит убрать страницу из индекса. Если на одной странице одновременно стоит canonical на другой URL и meta noindex, сигнал становится избыточным и часто говорит не о продуманной стратегии, а о шаблонной ошибке внедрения.
На реальных проектах проблема редко выглядит как одна строчка в коде. Чаще это цепочка: категория ведет через redirect, потом получает canonical на родительскую страницу, а в серверных заголовках случайно прилетает X-Robots-Tag noindex для всего шаблона. В интерфейсе сайта все выглядит нормально, но документ фактически не имеет шанса жить как самостоятельная SEO-страница. Поэтому хороший чекер должен видеть HTML и заголовки ответа вместе.
Еще одна типичная ошибка - каноникализация всего блока страниц на одну главную посадочную. Это кажется удобным способом борьбы с дублями, но часто убивает нормальную индексацию фильтров, пагинации, товарных карточек и информационных страниц. Canonical должен применяться осознанно: только там, где действительно есть дубль или техническая вариация документа, а не просто близкая тема.
Практический чек-лист
- Важная страница отвечает кодом `200` и не ведет по длинной цепочке редиректов.
- Canonical присутствует и указывает либо на текущий URL, либо на заранее выбранную основную версию документа.
- Meta robots не содержит `noindex`, если страницу нужно держать в поиске.
- X-Robots-Tag не запрещает индексацию на уровне сервера или CDN.
- Страница есть во внутренней перелинковке и, если нужно, входит в sitemap.
- После правок URL отправлен в переобход через Вебмастер и Search Console.
Примеры ошибок
Какие конфликты инструмент находит чаще всего
У молодых и быстро растущих сайтов проблемы индексации обычно приходят не по одной. Сначала подключают шаблон meta robots, потом в CMS меняют логику canonical, затем на прокси или сервере появляется служебный X-Robots-Tag. В итоге страница существует, но поисковик получает слишком много сигналов, чтобы уверенно считать ее нужной в индексе.
Связанные материалы
Какие статьи и проверки открыть после результата
Если инструмент нашел проблему, важно не только увидеть симптом, но и понять механику исправления. Для этого у каждой проверки должна быть связка со статьями справочника и соседними инструментами. Так хаб работает как рабочая система, а не как набор разрозненных форм.
FAQ
Частые вопросы про canonical и noindex
Что важнее для индексации: canonical или noindex?
Оба сигнала важны, но решают разные задачи. Canonical подсказывает основную версию документа среди дублей, а noindex просит не держать страницу в индексе. Ошибка в любом из них может убрать URL из видимости.
Можно ли ставить canonical на другую страницу того же сайта?
Да, если это реальный дубль или техническая вариация. Но если canonical указывает на другой URL случайно, нужная страница теряет шанс ранжироваться как самостоятельный документ.
Чем отличается meta noindex от X-Robots-Tag?
Meta noindex находится внутри HTML, а X-Robots-Tag приходит в HTTP-заголовках ответа. Для надежной диагностики нужно смотреть оба уровня, потому что редактор обычно видит только HTML.
Нужно ли ставить canonical на саму себя?
Для большинства важных страниц self-canonical полезен: он снижает риск дублей с параметрами, разными версиями URL и техническими вариациями. Главное, чтобы этот URL был действительно каноническим.
Почему страница может не индексироваться даже без noindex?
Причиной могут быть слабый документ, canonical на другой URL, отсутствие внутренних ссылок, дубли, редиректы, технические ошибки сервера или решение поисковика не держать страницу в поиске.
Когда проверять canonical и noindex повторно?
После миграции сайта, обновления CMS, редизайна, запуска фильтров, массовой замены шаблонов, смены логики пагинации и любых правок серверных заголовков.
Коммерческий смысл
Почему эту проверку стоит запускать до ручного аудита
Canonical и noindex кажутся техническими деталями, но бизнес-эффект у них прямой. Если главная посадочная, категория или статья выпадают из индекса, трафик не приходит независимо от того, сколько вложено в контент, дизайн и тексты. Поэтому инструмент помогает быстро отделить проблемы видимости от проблем конверсии и не тратить недели на второстепенные правки.
На практике это удобно и для подрядчика, и для владельца сайта. SEO-специалист получает быстрый слой диагностики перед ручным разбором. Разработчик понимает, есть ли риск в шаблоне или серверном конфиге. Владелец бизнеса видит, что часть проблем не требует месяцев продвижения, а упирается в конкретные сигналы индексации, которые можно быстро проверить и исправить.
Что делать после проверки
- Исправить критичные сигналы: noindex, X-Robots-Tag, canonical на чужой или неверный URL.
- Сократить redirect chain и перевести внутренние ссылки сразу на конечный адрес.
- Проверить присутствие URL в sitemap и внутренней перелинковке.
- Отправить страницу в переобход и отслеживать индекс через Вебмастер и Search Console.
- Если проблема шире одной страницы, запускать полный SEO-аудит по разделу или сайту.