Niepozorny parametr w adresie URL wyników Google – # – właśnie zmienił sposób działania wielu narzędzi SEO. Usunięcie możliwości pobierania 100 wyników jednym zapytaniem sprawia, że monitorowanie pozycji, analiza słów kluczowych i budowanie indeksów linków stają się droższe i bardziej skomplikowane. Poniżej wyjaśniam, czym był parametr #, dlaczego Google go „uśmiercił” i co to realnie oznacza dla Twojej strategii SEO.

Czym jest parametr # w Google?

Większość użytkowników nigdy go nie widziała, ale dla narzędzi SEO był kluczowy. Parametr # pojawiał się w adresie URL wyników wyszukiwania Google i określał, ile wyników ma zostać zwróconych w odpowiedzi na jedno zapytanie.

Jak działał parametr # w praktyce?

Przykładowy adres wyszukiwania mógł wyglądać tak:

  • https://www.google.com/search?q=moz+blog&hl=en&gl=gb&num=100

Gdzie:

  • q=moz+blog – szukamy frazy „moz blog”,
  • hl=en – język interfejsu: angielski,
  • gl=gb – lokalizacja: Wielka Brytania,
  • num=100 – poproś o 100 wyników jednym zapytaniem.

Technicznie oznaczało to pobranie zawartości 10 paginowanych stron wyników (po 10 klasycznych wyników organicznych) jako jednego, scalonego dokumentu HTML. Dla narzędzi SEO oznaczało to, że:

  • 1 zapytanie = dane o pozycjach do TOP 100,
  • mniej żądań do Google = niższe koszty infrastruktury,
  • łatwiejsze parsowanie i analiza SERP.

Problem w tym, że Google stopniowo przestał respektować #=100 – nawet jeśli parametr jest w URL, w praktyce otrzymujemy tylko pierwszą stronę (ok. 10 klasycznych wyników).

Dlaczego parametr # był tak ważny dla narzędzi SEO?

Koszty scrapowania wyników wyszukiwania

Narzędzia do monitoringu pozycji i analizy SERP nie „klikają” w Google jak zwykły użytkownik. Zamiast tego:

  • konstruują URL z parametrami (język, kraj, współrzędne, # itd.),
  • pobierają HTML wyników,
  • parsują go, wyciągając m.in.:
    • URL-e,
    • pozycje,
    • typy wyników (organiczne, featured snippets, lokalne itp.),
    • wysokości pikselowe elementów, aby policzyć widoczność.

Największe koszty tego procesu rosną wraz z liczbą zapytań do Google:

  • Proxies / IP – im więcej zapytań, tym więcej adresów IP trzeba utrzymywać, by uniknąć blokad (CAPTCHA, błędy, soft bany).
  • Emulacja przeglądarki – aby wyniki były zbliżone do tego, co widzi realny użytkownik, trzeba:
    • wspierać JavaScript,
    • obsługiwać cookies,
    • symulować zachowanie realnej przeglądarki.
  • Moc obliczeniowa – parsowanie HTML, rozpoznawanie typów wyników, agregacja danych.

Dzięki #=100 te koszty ponoszone były raz dla 100 pozycji. Po deprecjacji:

  • dla tych samych 100 wyników trzeba wykonać 10 osobnych zapytań (po 10 wyników),
  • koszt IP, mocy obliczeniowej, obsługi JS i cookies rośnie ponadproporcjonalnie.

Wpływ na dokładność danych

Jeden duży SERP (z #=100) to jedna „fotografia” wyników w danym momencie. Dziesięć osobnych stron to 10 chwil w czasie, w których SERP może się minimalnie różnić.

Przy pobieraniu wyników strona po stronie pojawia się problem:

  • strona może skakać między pozycjami na granicy pagin (np. 10–11),
  • jeśli strona jest na 11. pozycji przy pobieraniu pierwszej strony, a na 10. przy pobieraniu drugiej, narzędzie może ją „zgubić”,
  • przy łączeniu (stitchingu) danych trzeba bardzo ostrożnie mapować wyniki między stronami.

„Stitching” – jak narzędzia radzą sobie po śmierci #=100?

Moz (w tym STAT) i inne narzędzia wdrożyły lub rozwinęły mechanizm tzw. stitchingu – łączenia kilku stron SERP w jeden spójny zestaw danych.

Jak to działa technicznie?

  1. Pobranie wyników dla kolejnych stron:
    • start=0 – pozycje 1–10,
    • start=10 – pozycje 11–20,
    • start=20 – pozycje 21–30,
    • … aż do zakładanego limitu (np. TOP 50 lub TOP 100).
  2. Osobne parsowanie każdej strony (identyfikacja typów wyników, pozycji, elementów SERP).
  3. Scalanie (stitching) w jedną listę:
    • z uwzględnieniem tego, że układ SERP może się lekko różnić między kolejnymi pobraniami,
    • z minimalizowaniem błędów na granicy stron.

Takie podejście:

  • zachowało ciągłość danych – nie trzeba było ograniczać się tylko do TOP 10,
  • ale mocno podniosło koszt – każde słowo kluczowe to teraz więcej zapytań, więcej zasobów i większe ryzyko blokad.

Jak to wpływa na funkcje narzędzi (na przykładzie Moz i STAT)?

Monitorowanie pozycji (rank tracking)

Moz musiał znaleźć kompromis między:

  • zakresem danych (jak głęboko w SERP sięga),
  • kosztem utrzymania danych (bez prostego przerzucania go na klientów).

Aktualne podejście (wg Moz):

  • Moz Pro – standardowo śledzi wyniki do 2. strony (czyli ok. TOP 20 tradycyjnych wyników).
  • STAT (rozwiązanie enterprise) – elastyczny zakres, nawet do TOP 100, w zależności od ustaleń z klientem.

Keyword research

Przy analizie słów kluczowych liczą się nie tylko TOP 3 czy TOP 10. Głębsze pozycje są ważne m.in. przy:

  • analizie kanibalizacji (kilka podstron na to samo słowo),
  • wyłapywaniu „ukrytych szans” w TOP 20–50,
  • porównywaniu pełnego profilu widoczności z konkurentami.

W związku z tym Moz deklaruje, że dla modułów analitycznych, takich jak:

  • Keyword Explorer,
  • Link Explorer,

utrzymuje zakres do TOP 50 wyników – podobnie jak przed zmianą, ale obecnie osiągane jest to poprzez stitching.

Indeks linków

Indeksy linków (jak ten Moz-a) w dużej mierze korzystają z:

  • linków znalezionych na stronach,
  • linków odkrytych w wynikach wyszukiwania Google.

Im głębiej narzędzie sięga w SERP, tym:

  • więcej unikalnych URL-i odkrywa,
  • więcej linków trafia do indeksu,
  • pełniejszy obraz profilu linkowego domen.

Ograniczenie możliwości „taniego” sięgania do TOP 100 oznacza, że narzędzia muszą balansować między:

  • kompletnością indeksu,
  • kosztem pozyskiwania danych,
  • ceną usługi dla użytkownika końcowego.

Dlaczego Google mógł zrezygnować z #=100?

Google oficjalnie od dawna nie promował parametru # jako wspieranego, więc jego pełne „uśmiercenie” nie wymagało żadnych deklaracji. Możliwe motywacje to:

  • Ograniczenie scrapingu:
    • mniej masowych pobrań dużych SERP-ów jednym zapytaniem,
    • łatwiejsza kontrola ruchu automatycznego.
  • Złożoność współczesnych SERP-ów:
    • wyniki z AI Overviews,
    • wiele typów bloków (wideo, graf, lokalne, produkty),
    • jedna „strona” SERP to często znacznie więcej niż 10 elementów, więc „100 wyników” w starej logice ma dziś mniejszy sens.
  • Kontrola doświadczenia użytkownika – uproszczenie dostępnych parametrów i spójniejsze doświadczenie wyszukiwania.

Co to oznacza dla SEO w Polsce?

Zmieniona głębia danych w narzędziach

Jeżeli prowadzisz SEO na rynku polskim i korzystasz z globalnych narzędzi (Moz, STAT, ale też innych rank trackerów), powinieneś:

  • sprawdzić, do której pozycji Twoje narzędzie realnie zbiera dane dla polskich SERP-ów,
  • upewnić się, czy zakres głębokości nie zmienił się „po cichu” (np. z TOP 100 na TOP 20–50),
  • dostosować swoje raporty i KPI:
    • jeśli raportowałeś widoczność do TOP 100, a narzędzie zbiera teraz dane tylko do TOP 20–50, wyniki historyczne i bieżące mogą być nieporównywalne.

Analiza konkurencji w polskich SERP-ach

Na rynkach o dużej konkurencji (e‑commerce, finanse, prawo, medycyna) wartościowe dane często kryją się poza TOP 10. Mniej dostępnych danych z głębszych pozycji oznacza, że:

  • trudniej wychwycić wschodzących konkurentów, którzy są dziś w TOP 20–50,
  • jest mniej informacji o długim ogonie (long tail),
  • częściej pojawia się potrzeba łączenia danych z kilku narzędzi (np. polskich i międzynarodowych) lub własnego scrapingu (z zachowaniem prawa i regulaminów usług).

Projekty lokalne (miasta, regiony)

Dla SEO lokalnego w Polsce (miasta, województwa) kluczowa jest dokładna emulacja:

  • lokalizacji,
  • języka,
  • urządzenia (mobile vs desktop).

Każda z tych zmiennych zwiększa liczbę zapytań do Google. Skoro każde zapytanie jest teraz relatywnie „droższe” (brak #=100), część narzędzi może:

  • ograniczać liczbę obsługiwanych lokalizacji,
  • zmniejszać głębokość wyników,
  • wprowadzać nowe plany cenowe lub ostrzejsze limity.

Długoterminowa jakość danych historycznych

Jeżeli od lat prowadzisz projekty SEO w Polsce i porównujesz dane rok do roku, pamiętaj, że:

  • część wykresów widoczności, udziału w rynku czy liczby słów w TOP X może być „zaburzona” w momencie przejścia z #=100 na stitching,
  • możesz zauważyć nagłe:
    • spadki liczby słów w TOP 50/100,
    • zmiany w metrykach udziału w widoczności.

Niektóre z tych zmian mogą wynikać z nowej techniki zbierania danych, a nie z faktycznych zmian w rankingach.

Rekomendacje praktyczne

1. Sprawdź, jak działa Twoje narzędzie

  • Przeczytaj oficjalne komunikaty (changelog, blog, help center) używanych narzędzi SEO.
  • Znajdź odpowiedzi na pytania:
    • do jakiej pozycji zbierane są dane (TOP 10? 20? 50? 100?),
    • czy stosowany jest stitching, czy inne obejście,
    • czy zmieniły się ograniczenia/pakiety po deprecjacji #=100.

2. Dostosuj sposób raportowania

  • Jeśli do tej pory raportowałeś:
    • „liczbę słów w TOP 100” – rozważ zmianę na TOP 10/20/50, zależnie od możliwości narzędzia,
    • „udział widoczności w TOP 50/100” – jasno zaznacz w raportach, od kiedy zmienił się sposób zbierania danych.
  • Opisuj w dokumentacji raportów:
    • metodologię,
    • moment zmiany metodologii (przejście na stitching).

3. Przeprojektuj monitoring konkurencji

  • Skup się na zakresie, który:
    • najbardziej wpływa na ruch i biznes (zazwyczaj TOP 10–20),
    • da się wiarygodnie monitorować długoterminowo.
  • Dla analiz „głębokich” (TOP 50–100):
    • traktuj je jako analizy okresowe, a niekoniecznie codzienny monitoring,
    • uwzględniaj większą możliwą niedokładność (fluktuacje na granicy stron wyników).

4. Uważaj przy własnym scrapingu SERP-ów

Jeśli budujesz własne narzędzia wewnętrzne:

  • załóż, że parametr #=100 nie działa,
  • projektuj system pod stitching i większą liczbę żądań,
  • pilnuj:
    • zgodności z regulaminem Google,
    • przepisów prawnych (RODO, prawo autorskie, warunki korzystania z usług).

5. Edukuj zespół i klientów

  • Wytłumacz:
    • czym był parametr #=100,
    • dlaczego jego deprecjacja wpływa na dane,
    • że niewielkie różnice w liczbie monitorowanych słów/pozycji mogą wynikać z techniki pomiaru, a nie realnych spadków w SEO.
  • Dodaj krótki komentarz metodologiczny do długoterminowych raportów, zwłaszcza jeśli porównujesz okresy sprzed i po zmianie.

6. Samodzielnie poeksperymentuj z URL-ami Google

Aby lepiej zrozumieć, jak działają SERP-y:

  • Wpisz dowolne zapytanie w Google i skopiuj adres URL wyników.
  • Pobaw się parametrami:
    • q= – zmień zapytanie,
    • hl= – zmień język,
    • gl= – zmień kraj (np. gl=pl),
    • start= – przeskakuj między stronami wyników (0, 10, 20…).

To proste ćwiczenie dobrze pokazuje, na czym polega praca rank trackerów i dlaczego deprecjacja #=100 tak mocno je dotyka.

Źródło: Moz.com

Podobne wpisy

google-analytics
ahrefs-logo
hotjar-logo
gcloud
clockify_logo_white_subtract
trello-logo

ENOBO SP. Z O. O. ul. Nad Nielbą 39B/4, 62-100 Wągrowiec NIP: 7662011348 REGON: 527940436

Copyright © 2026

Przydatne linki

Zajrzyj do nas