Google Search Console сигнализирует о неиндексированных страницах. Разбираемся со статусами «Crawled - currently not indexed», «Duplicate without user-selected canonical», «Blocked due to 4xx issue». Оптимизируем краулинговый бюджет, повышаем видимость сайта в Google.
Иногда поисковый робот еще не успевает просканировать страницу, или отчетам требуется время, чтобы отобразить изменения, внесенные на ваш сайт.
Анализ файла Sitemap. Убедитесь, что в файле Sitemap нет ссылок на страницы с ошибками 404 или на страницы, которые вы не хотите индексировать.
1. Go to Google Search Console > Pages > Duplicate without user-selected canonical · 2. Check your canonical tags · 2. HTTP vs. HTTPS · 3. Include ...
Not indexed: The URL is not indexed, either because of an indexing error, or because of a legitimate reason (for example, if the page is blocked from indexing ...
Отчёты Google Search Console (GSC) периодически сигнализируют о страницах со статусом «Не проиндексировано», что зачастую указывает на базовые проблемы в стратегии контента и технической оптимизации сайта. Правильное понимание этих статусов и последующие меры имеют решающее значение для поддержания чистого и эффективного индекса, рационального расходования краулингового бюджета и сохранения ссылочного веса.
Анализ статусов, предоставляемых GSC, позволяет выявить и классифицировать основные препятствия для индексации страниц.
Эти статусы, как правило, свидетельствуют о недостаточном качестве контента либо о проблемах с приоритизацией. По внутренней логике Google, если страница была просканирована, но не проиндексирована («Crawled - currently not indexed»), это может означать, что она не соответствует требованиям качества или обладает низкой ценностью для пользователя. Если же страница была обнаружена, но ещё не просканирована («Discovered - currently not indexed»), особенно на масштабных сайтах, это часто указывает на затруднения с краулинговым бюджетом, когда Google откладывает индексацию ресурсов.
Основные причины:
Рекомендуемые действия:
rel=canonical или настраивать 301-редиректы. Важно помнить, что файл robots.txt лишь блокирует краулинг, но не удаляет уже известные URL из индекса Google, что может привести к сохранению дубликатов в отчёте GSC как минимум в течение месяца.Эта ошибка указывает на то, что Google распознал страницу как дубликат другой, но на ней отсутствует явно указанный канонический URL. В результате Google самостоятельно выбирает каноническую версию, что может привести к исключению предпочтительного для владельца сайта URL из выдачи.
Основные причины:
rel=canonical: Отсутствие либо ошибочное указание канонического тега.?utm_source=, ?sessionid=, ?type=, ?color=) могут восприниматься как дубликаты основных./en/-версии страниц, требующие отдельного управления каноничностью.Рекомендуемые действия:
rel=canonical: Корректно указывать канонический URL для каждой группы дублирующих страниц.Обработка параметров: Применять самореферентные канонические теги без параметров на параметрических URL и блокировать параметры в robots.txt.
User-agent: *
Disallow: /*?sessionid=
Disallow: /*?utm_source=
Это останавливает сканирование Googlebot'ом, однако для полной очистки от дубликатов необходим rel=canonical.
Данный статус означает, что Googlebot попытался обратиться к странице, но получил клиентскую ошибку 4xx.
Основные причины:
Рекомендуемые действия:
Согласно Google, не все страницы должны быть проиндексированы. Цель - достичь индексации канонической версии каждой важной страницы. Периодический анализ отчётов GSC, в частности отчёта «Индексирование страниц», играет ключевую роль в поддержании «чистого» индекса. Это позволяет не только оптимизировать краулинговый бюджет, то есть ресурсы, которые Google выделяет на сканирование сайта, но и сосредоточить ссылочный вес на действительно ценных страницах, повышая их позиции в поисковой выдаче. Инструменты, такие как URL Inspection Tool в GSC, дают возможность оперативно проверять статус индексации отдельных URL и устранять возникающие проблемы.
Оптимизация индексации - непрерывный процесс, требующий как технических навыков, так и понимания алгоритмов ранжирования Google, которые постоянно развиваются. Игнорирование предупреждений Google Search Console может привести к значительному ухудшению видимости сайта в поисковых системах.
Иногда поисковый робот еще не успевает просканировать страницу, или отчетам требуется время, чтобы отобразить изменения, внесенные на ваш сайт.
Анализ файла Sitemap. Убедитесь, что в файле Sitemap нет ссылок на страницы с ошибками 404 или на страницы, которые вы не хотите индексировать.
1. Go to Google Search Console > Pages > Duplicate without user-selected canonical · 2. Check your canonical tags · 2. HTTP vs. HTTPS · 3. Include ...
Not indexed: The URL is not indexed, either because of an indexing error, or because of a legitimate reason (for example, if the page is blocked from indexing ...
Вопросы и ответы