Niepozorny parametr w adresie URL wyników Google – # – właśnie zmienił sposób działania wielu narzędzi SEO. Usunięcie możliwości pobierania 100 wyników jednym zapytaniem sprawia, że monitorowanie pozycji, analiza słów kluczowych i budowanie indeksów linków stają się droższe i bardziej skomplikowane. Poniżej wyjaśniam, czym był parametr #, dlaczego Google go „uśmiercił” i co to realnie oznacza dla Twojej strategii SEO.
Czym jest parametr # w Google?
Większość użytkowników nigdy go nie widziała, ale dla narzędzi SEO był kluczowy. Parametr # pojawiał się w adresie URL wyników wyszukiwania Google i określał, ile wyników ma zostać zwróconych w odpowiedzi na jedno zapytanie.
Jak działał parametr # w praktyce?
Przykładowy adres wyszukiwania mógł wyglądać tak:
https://www.google.com/search?q=moz+blog&hl=en&gl=gb&num=100
Gdzie:
q=moz+blog – szukamy frazy „moz blog”,
hl=en – język interfejsu: angielski,
gl=gb – lokalizacja: Wielka Brytania,
num=100 – poproś o 100 wyników jednym zapytaniem.
Technicznie oznaczało to pobranie zawartości 10 paginowanych stron wyników (po 10 klasycznych wyników organicznych) jako jednego, scalonego dokumentu HTML. Dla narzędzi SEO oznaczało to, że:
- 1 zapytanie = dane o pozycjach do TOP 100,
- mniej żądań do Google = niższe koszty infrastruktury,
- łatwiejsze parsowanie i analiza SERP.
Problem w tym, że Google stopniowo przestał respektować #=100 – nawet jeśli parametr jest w URL, w praktyce otrzymujemy tylko pierwszą stronę (ok. 10 klasycznych wyników).
Dlaczego parametr # był tak ważny dla narzędzi SEO?
Koszty scrapowania wyników wyszukiwania
Narzędzia do monitoringu pozycji i analizy SERP nie „klikają” w Google jak zwykły użytkownik. Zamiast tego:
- konstruują URL z parametrami (język, kraj, współrzędne,
# itd.),
- pobierają HTML wyników,
- parsują go, wyciągając m.in.:
- URL-e,
- pozycje,
- typy wyników (organiczne, featured snippets, lokalne itp.),
- wysokości pikselowe elementów, aby policzyć widoczność.
Największe koszty tego procesu rosną wraz z liczbą zapytań do Google:
- Proxies / IP – im więcej zapytań, tym więcej adresów IP trzeba utrzymywać, by uniknąć blokad (CAPTCHA, błędy, soft bany).
- Emulacja przeglądarki – aby wyniki były zbliżone do tego, co widzi realny użytkownik, trzeba:
- wspierać JavaScript,
- obsługiwać cookies,
- symulować zachowanie realnej przeglądarki.
- Moc obliczeniowa – parsowanie HTML, rozpoznawanie typów wyników, agregacja danych.
Dzięki #=100 te koszty ponoszone były raz dla 100 pozycji. Po deprecjacji:
- dla tych samych 100 wyników trzeba wykonać 10 osobnych zapytań (po 10 wyników),
- koszt IP, mocy obliczeniowej, obsługi JS i cookies rośnie ponadproporcjonalnie.
Wpływ na dokładność danych
Jeden duży SERP (z #=100) to jedna „fotografia” wyników w danym momencie. Dziesięć osobnych stron to 10 chwil w czasie, w których SERP może się minimalnie różnić.
Przy pobieraniu wyników strona po stronie pojawia się problem:
- strona może skakać między pozycjami na granicy pagin (np. 10–11),
- jeśli strona jest na 11. pozycji przy pobieraniu pierwszej strony, a na 10. przy pobieraniu drugiej, narzędzie może ją „zgubić”,
- przy łączeniu (stitchingu) danych trzeba bardzo ostrożnie mapować wyniki między stronami.
„Stitching” – jak narzędzia radzą sobie po śmierci #=100?
Moz (w tym STAT) i inne narzędzia wdrożyły lub rozwinęły mechanizm tzw. stitchingu – łączenia kilku stron SERP w jeden spójny zestaw danych.
Jak to działa technicznie?
- Pobranie wyników dla kolejnych stron:
start=0 – pozycje 1–10,
start=10 – pozycje 11–20,
start=20 – pozycje 21–30,
- … aż do zakładanego limitu (np. TOP 50 lub TOP 100).
- Osobne parsowanie każdej strony (identyfikacja typów wyników, pozycji, elementów SERP).
- Scalanie (stitching) w jedną listę:
- z uwzględnieniem tego, że układ SERP może się lekko różnić między kolejnymi pobraniami,
- z minimalizowaniem błędów na granicy stron.
Takie podejście:
- zachowało ciągłość danych – nie trzeba było ograniczać się tylko do TOP 10,
- ale mocno podniosło koszt – każde słowo kluczowe to teraz więcej zapytań, więcej zasobów i większe ryzyko blokad.
Jak to wpływa na funkcje narzędzi (na przykładzie Moz i STAT)?
Monitorowanie pozycji (rank tracking)
Moz musiał znaleźć kompromis między:
- zakresem danych (jak głęboko w SERP sięga),
- kosztem utrzymania danych (bez prostego przerzucania go na klientów).
Aktualne podejście (wg Moz):
- Moz Pro – standardowo śledzi wyniki do 2. strony (czyli ok. TOP 20 tradycyjnych wyników).
- STAT (rozwiązanie enterprise) – elastyczny zakres, nawet do TOP 100, w zależności od ustaleń z klientem.
Keyword research
Przy analizie słów kluczowych liczą się nie tylko TOP 3 czy TOP 10. Głębsze pozycje są ważne m.in. przy:
- analizie kanibalizacji (kilka podstron na to samo słowo),
- wyłapywaniu „ukrytych szans” w TOP 20–50,
- porównywaniu pełnego profilu widoczności z konkurentami.
W związku z tym Moz deklaruje, że dla modułów analitycznych, takich jak:
- Keyword Explorer,
- Link Explorer,
utrzymuje zakres do TOP 50 wyników – podobnie jak przed zmianą, ale obecnie osiągane jest to poprzez stitching.
Indeks linków
Indeksy linków (jak ten Moz-a) w dużej mierze korzystają z:
- linków znalezionych na stronach,
- linków odkrytych w wynikach wyszukiwania Google.
Im głębiej narzędzie sięga w SERP, tym:
- więcej unikalnych URL-i odkrywa,
- więcej linków trafia do indeksu,
- pełniejszy obraz profilu linkowego domen.
Ograniczenie możliwości „taniego” sięgania do TOP 100 oznacza, że narzędzia muszą balansować między:
- kompletnością indeksu,
- kosztem pozyskiwania danych,
- ceną usługi dla użytkownika końcowego.
Dlaczego Google mógł zrezygnować z #=100?
Google oficjalnie od dawna nie promował parametru # jako wspieranego, więc jego pełne „uśmiercenie” nie wymagało żadnych deklaracji. Możliwe motywacje to:
- Ograniczenie scrapingu:
- mniej masowych pobrań dużych SERP-ów jednym zapytaniem,
- łatwiejsza kontrola ruchu automatycznego.
- Złożoność współczesnych SERP-ów:
- wyniki z AI Overviews,
- wiele typów bloków (wideo, graf, lokalne, produkty),
- jedna „strona” SERP to często znacznie więcej niż 10 elementów, więc „100 wyników” w starej logice ma dziś mniejszy sens.
- Kontrola doświadczenia użytkownika – uproszczenie dostępnych parametrów i spójniejsze doświadczenie wyszukiwania.
Co to oznacza dla SEO w Polsce?
Zmieniona głębia danych w narzędziach
Jeżeli prowadzisz SEO na rynku polskim i korzystasz z globalnych narzędzi (Moz, STAT, ale też innych rank trackerów), powinieneś:
- sprawdzić, do której pozycji Twoje narzędzie realnie zbiera dane dla polskich SERP-ów,
- upewnić się, czy zakres głębokości nie zmienił się „po cichu” (np. z TOP 100 na TOP 20–50),
- dostosować swoje raporty i KPI:
- jeśli raportowałeś widoczność do TOP 100, a narzędzie zbiera teraz dane tylko do TOP 20–50, wyniki historyczne i bieżące mogą być nieporównywalne.
Analiza konkurencji w polskich SERP-ach
Na rynkach o dużej konkurencji (e‑commerce, finanse, prawo, medycyna) wartościowe dane często kryją się poza TOP 10. Mniej dostępnych danych z głębszych pozycji oznacza, że:
- trudniej wychwycić wschodzących konkurentów, którzy są dziś w TOP 20–50,
- jest mniej informacji o długim ogonie (long tail),
- częściej pojawia się potrzeba łączenia danych z kilku narzędzi (np. polskich i międzynarodowych) lub własnego scrapingu (z zachowaniem prawa i regulaminów usług).
Projekty lokalne (miasta, regiony)
Dla SEO lokalnego w Polsce (miasta, województwa) kluczowa jest dokładna emulacja:
- lokalizacji,
- języka,
- urządzenia (mobile vs desktop).
Każda z tych zmiennych zwiększa liczbę zapytań do Google. Skoro każde zapytanie jest teraz relatywnie „droższe” (brak #=100), część narzędzi może:
- ograniczać liczbę obsługiwanych lokalizacji,
- zmniejszać głębokość wyników,
- wprowadzać nowe plany cenowe lub ostrzejsze limity.
Długoterminowa jakość danych historycznych
Jeżeli od lat prowadzisz projekty SEO w Polsce i porównujesz dane rok do roku, pamiętaj, że:
- część wykresów widoczności, udziału w rynku czy liczby słów w TOP X może być „zaburzona” w momencie przejścia z
#=100 na stitching,
- możesz zauważyć nagłe:
- spadki liczby słów w TOP 50/100,
- zmiany w metrykach udziału w widoczności.
Niektóre z tych zmian mogą wynikać z nowej techniki zbierania danych, a nie z faktycznych zmian w rankingach.
Rekomendacje praktyczne
1. Sprawdź, jak działa Twoje narzędzie
- Przeczytaj oficjalne komunikaty (changelog, blog, help center) używanych narzędzi SEO.
- Znajdź odpowiedzi na pytania:
- do jakiej pozycji zbierane są dane (TOP 10? 20? 50? 100?),
- czy stosowany jest stitching, czy inne obejście,
- czy zmieniły się ograniczenia/pakiety po deprecjacji
#=100.
2. Dostosuj sposób raportowania
- Jeśli do tej pory raportowałeś:
- „liczbę słów w TOP 100” – rozważ zmianę na TOP 10/20/50, zależnie od możliwości narzędzia,
- „udział widoczności w TOP 50/100” – jasno zaznacz w raportach, od kiedy zmienił się sposób zbierania danych.
- Opisuj w dokumentacji raportów:
- metodologię,
- moment zmiany metodologii (przejście na stitching).
3. Przeprojektuj monitoring konkurencji
- Skup się na zakresie, który:
- najbardziej wpływa na ruch i biznes (zazwyczaj TOP 10–20),
- da się wiarygodnie monitorować długoterminowo.
- Dla analiz „głębokich” (TOP 50–100):
- traktuj je jako analizy okresowe, a niekoniecznie codzienny monitoring,
- uwzględniaj większą możliwą niedokładność (fluktuacje na granicy stron wyników).
4. Uważaj przy własnym scrapingu SERP-ów
Jeśli budujesz własne narzędzia wewnętrzne:
- załóż, że parametr #=100 nie działa,
- projektuj system pod stitching i większą liczbę żądań,
- pilnuj:
- zgodności z regulaminem Google,
- przepisów prawnych (RODO, prawo autorskie, warunki korzystania z usług).
5. Edukuj zespół i klientów
- Wytłumacz:
- czym był parametr
#=100,
- dlaczego jego deprecjacja wpływa na dane,
- że niewielkie różnice w liczbie monitorowanych słów/pozycji mogą wynikać z techniki pomiaru, a nie realnych spadków w SEO.
- Dodaj krótki komentarz metodologiczny do długoterminowych raportów, zwłaszcza jeśli porównujesz okresy sprzed i po zmianie.
6. Samodzielnie poeksperymentuj z URL-ami Google
Aby lepiej zrozumieć, jak działają SERP-y:
- Wpisz dowolne zapytanie w Google i skopiuj adres URL wyników.
- Pobaw się parametrami:
q= – zmień zapytanie,
hl= – zmień język,
gl= – zmień kraj (np. gl=pl),
start= – przeskakuj między stronami wyników (0, 10, 20…).
To proste ćwiczenie dobrze pokazuje, na czym polega praca rank trackerów i dlaczego deprecjacja #=100 tak mocno je dotyka.
Źródło: Moz.com