Aktualizacja: 8 stycznia 2026
Noindex to dyrektywa, która informuje Google, aby nie dodawało adresu URL do indeksu; blokadę potwierdza się przez: (1) sprawdzenie dyrektywy w HTML lub nagłówku HTTP, (2) weryfikację w Inspekcji URL w Google Search Console, (3) wykluczenie blokady skanowania przez robots.txt.
Szybkie fakty
- Najtwardszym dowodem „noindex” jest zgodny wynik z Inspekcji URL oraz obecność dyrektywy w HTML lub nagłówku HTTP.
- Blokada w robots.txt może uniemożliwić Google odczyt meta robots i X-Robots-Tag, co zaburza diagnozę.
- Noindex może dotyczyć także zasobów nie-HTML (np. PDF) i wtedy często występuje wyłącznie w nagłówku X-Robots-Tag.
Jak działa noindex i kiedy realnie blokuje indeksację
Noindex to dyrektywa indeksowania, a nie blokada dostępu. Google może wejść na adres URL, pobrać treść i dopiero wtedy podjąć decyzję, aby nie umieszczać tej wersji w indeksie. W diagnozie kluczowe jest rozróżnienie: „czy Google może skanować URL” oraz „czy po skanowaniu otrzymuje sygnał noindex”.
Dyrektywa może pojawić się w kodzie HTML jako meta robots lub w odpowiedzi serwera jako nagłówek HTTP. Dokumentacja Google wskazuje wprost, że tagi robots meta i nagłówki X-Robots-Tag są wykrywane podczas skanowania danego adresu URL, więc bez crawlu nie ma podstaw do pewnego potwierdzenia, co Google odczytało. Źródło: Robots meta tag i X-Robots-Tag (Google Developers).
robots
metatags andX-Robots-TagHTTP headers are discovered when a URL is crawled.
Krok 1: wykluczenie blokady skanowania w robots.txt
Jeśli robots.txt blokuje skanowanie (crawl), Google może nie pobrać HTML ani nagłówków odpowiedzi w sposób potrzebny do oceny dyrektyw indeksowania. W takim scenariuszu pojawiają się rozbieżności: w kodzie nie widać noindex, a jednocześnie raporty GSC sygnalizują problemy z dostępem lub brak aktualnych danych o dyrektywach.
Kontrola polega na porównaniu: (a) reguł robots.txt dotyczących ścieżki URL oraz (b) tego, czy Googlebot ma prawo pobrać stronę. Jeśli reguły są restrykcyjne, priorytetem staje się korekta blokady, a dopiero później analiza dyrektyw noindex. W temacie typowych błędów i bezpiecznych wyjątków pomocny jest materiał: błędy w robots.txt, które blokują skanowanie.
Specyfikacja robots.txt jako standard protokołu jest opisana w RFC 9309: Robots Exclusion Protocol (RFC 9309). To źródło przydaje się w sporach technicznych o interpretację składni i zasięg reguł.
Krok 2: sprawdzenie noindex w HTML i w nagłówkach HTTP
W HTML dyrektywa noindex najczęściej występuje jako meta tag, np. <meta name="robots" content="noindex">, rzadziej w wariancie celowanym na robota (np. googlebot). Jeżeli strona jest renderowana po stronie serwera, „Wyświetl źródło strony” zwykle wystarcza do znalezienia meta tagu. Przy renderowaniu po stronie klienta (SPA) lepszym dowodem jest odpowiedź pobrana przez Google (patrz Inspekcja URL).
Nagłówki HTTP są osobną warstwą. Serwer lub warstwa pośrednia (CDN, reverse proxy) może zwracać X-Robots-Tag: noindex nawet wtedy, gdy w HTML brak meta robots. Dotyczy to także plików nie-HTML, np. PDF, które nie mają miejsca na meta tagi.
Dobry vs zły przykład
Dobry: noindex jest ustawiony celowo na stronach filtrów lub wynikach wyszukiwania wewnętrznego, a strona docelowa ma brak noindex i poprawny canonical.
Zły: globalne X-Robots-Tag: noindex jest dodane na poziomie serwera dla całej domeny lub dla całego katalogu, przez co blokada obejmuje także strony, które powinny być w indeksie.
Opis metod blokowania indeksowania (w tym noindex) jest zebrany w dokumentacji Google: Blokowanie indeksowania (Google Developers).
Krok 3: potwierdzenie w Google Search Console (Inspekcja URL)
Inspekcja URL odpowiada na pytanie, co Google widzi i jak ocenia dany adres. W raporcie pojawiają się m.in. informacje o indeksowaniu, stronie kanonicznej oraz wynik testu na żywo (Live Test). Jeżeli „noindex” jest aktywny, Inspekcja URL zwykle pokaże to jako powód braku indeksacji lub jako sygnał, który uniemożliwia dodanie strony do indeksu.
W przypadku zmian (usunięcie noindex, korekta nagłówków, odblokowanie robots.txt) kluczowa jest walidacja na bieżącej wersji. Dokumentacja narzędzia wskazuje możliwość zgłoszenia ponownego sprawdzenia: URL Inspection tool (Google Search Console Help).
Request indexing for a URL: Request that a URL be crawled by Google.
Po zgłoszeniu indeksowania sensowne jest porównanie: (1) wyników Live Test oraz (2) danych „z indeksu” (mogą być starsze). Rozbieżność zwykle oznacza, że Google ma już nową wersję w testach, ale indeks i raporty nie zostały jeszcze zaktualizowane.
Metody sprawdzenia indeksacji i interpretacja rozjazdów między narzędziami są szerzej opisane w materiale: sprawdzić, czy strona jest w indeksie Google.
Inspekcja URL czy sprawdzenie kodu: co daje pewniejszy dowód noindex
Inspekcja URL pokazuje, co Google faktycznie odczytuje i ocenia dla danego adresu, więc jest lepszym dowodem operacyjnym niż lokalny podgląd HTML. Sprawdzenie HTML i nagłówków HTTP pozwala natomiast ustalić źródło dyrektywy i przygotować poprawkę na właściwej warstwie. Najpewniejszy wynik daje zgodność obu podejść. Rozbieżność zwykle wskazuje na cache/CDN, różne odpowiedzi serwera lub problem z crawl.
Tabela diagnostyczna: sygnał → wniosek → następny test
Poniższa tabela porządkuje diagnozę tak, aby możliwe było szybkie ustalenie, czy „noindex” jest realną przyczyną braku indeksacji, czy tylko hipotezą wynikającą z niepełnych danych.
| Sygnał | Co oznacza | Co sprawdzić dalej |
|---|---|---|
| Inspekcja URL wskazuje noindex | Google odczytało dyrektywę noindex dla tego URL | Zidentyfikować źródło: meta robots vs X-Robots-Tag; sprawdzić, czy reguła nie jest globalna |
| W HTML brak meta robots, a URL nie trafia do indeksu | Noindex może być w nagłówku HTTP lub w innej wersji odpowiedzi | Sprawdzić nagłówki odpowiedzi (np. curl -I) oraz różnice odpowiedzi serwera/CDN |
| robots.txt blokuje ścieżkę URL | Google może nie pobierać treści i dyrektyw w sposób rozstrzygający | Odblokować crawl dla krytycznych ścieżek, potem wykonać Live Test w Inspekcji URL |
| Google wybiera inną stronę jako kanoniczną | Brak indeksacji może wynikać z kanonikalizacji, a nie z noindex | Sprawdzić canonical i duplikację; porównać sygnały w Inspekcji URL |
| Noindex dotyczy PDF lub zasobu nie-HTML | Dyrektywa zwykle pochodzi z X-Robots-Tag | Sprawdzić nagłówki odpowiedzi zasobu i konfigurację serwera dla typów MIME |
Jeżeli diagnoza dotyczy wielu adresów i pojawia się konieczność pracy na wykluczeniach, przydatne jest rozwinięcie tematu w materiale: problemy z indeksowaniem i praca na wykluczeniach w GSC.
Najczęstsze pułapki: CMS, wtyczki, CDN, parametry URL i PDF
Najczęstszy scenariusz rozjazdu wygląda tak: w kodzie strony nie ma meta robots, a Google raportuje noindex. Zwykle oznacza to, że dyrektywa pochodzi z nagłówka HTTP albo z warunkowej konfiguracji (np. tylko dla części URL-i). Warstwy pośrednie, takie jak CDN, potrafią modyfikować nagłówki i cache’ować odpowiedzi inaczej dla różnych ścieżek.
Kolejna pułapka dotyczy adresów z parametrami (filtry, sortowanie, paginacja). Noindex bywa ustawiany tylko na wariantach z parametrami, natomiast strona bazowa pozostaje indeksowalna. Wtedy w Inspekcji URL trzeba testować konkretny wariant, który widnieje w raporcie, a nie „czystą” wersję adresu.
W ekosystemie CMS noindex może wynikać z ustawień szablonu, środowiska testowego przeniesionego na produkcję albo modułu SEO. Lista typowych miejsc konfiguracji i przykładów implementacji jest zebrana w materiale branżowym: Noindex – jak blokować indeksowanie (Semcore).
Pytania użytkowników
Jak sprawdzić noindex, jeśli strona nie renderuje się poprawnie?
Gdy strona opiera się na renderowaniu po stronie klienta, podgląd źródła może nie pokazać finalnych dyrektyw. W takim przypadku rozstrzygające są dane z Inspekcji URL i wynik testu na żywo, ponieważ pokazują to, co Google pobiera i interpretuje.
Czy noindex działa, gdy URL jest zablokowany w robots.txt?
Noindex jest dyrektywą odczytywaną podczas skanowania. Jeśli robots.txt blokuje crawl, Google może nie pobrać strony i nie odczytać dyrektywy w sposób rozstrzygający, dlatego diagnozę należy zaczynać od weryfikacji dostępu.
Jak wykryć noindex w PDF?
Pliki PDF nie mają meta tagów, więc sygnał noindex zwykle pojawia się jako nagłówek X-Robots-Tag w odpowiedzi serwera. Weryfikacja polega na sprawdzeniu nagłówków odpowiedzi dla konkretnego pliku.
Ile czasu trwa aktualizacja po usunięciu noindex?
Po usunięciu dyrektywy potrzebny jest ponowny crawl, aby Google zobaczyło zmianę. Weryfikacja polega na teście na żywo w Inspekcji URL oraz na obserwacji, kiedy raporty indeksowania zostaną zaktualizowane.
Co zrobić, gdy noindex dotyczy tylko filtrów i parametrów?
Najpierw należy potwierdzić, czy noindex jest ograniczony wyłącznie do adresów z parametrami, a strona bazowa pozostaje indeksowalna. Następnie należy sprawdzić, czy Google nie traktuje wariantów jako duplikatów oraz czy kanonikalizacja prowadzi do strony bazowej.
Jak odróżnić noindex od problemu z canonical?
Noindex blokuje dodanie danej wersji do indeksu, natomiast canonical wskazuje preferowaną wersję do indeksowania. Jeśli Inspekcja URL pokazuje inną stronę jako kanoniczną, a dyrektywy noindex nie ma, przyczyna częściej leży w duplikacji i wyborze kanonicznej, a nie w blokadzie noindex.
