Google po cichu wyłączył obsługę parametru &num=100 w wynikach wyszukiwania. Dla zwykłego użytkownika to kosmetyczna zmiana w adresie URL, ale dla branży SEO – poważne tąpnięcie. Na bazie materiału Whiteboard Friday z Moz wyjaśniam, co dokładnie się stało, dlaczego ma to znaczenie i jak dostosować codzienną pracę SEO-wca do nowych realiów.


Poniżej znajdziesz skrót i komentarz do najważniejszych tez Toma Cappera oraz praktyczne wskazówki, co zmiana parametru &num= oznacza dla analizy wyników, narzędzi SEO i strategii widoczności – także w polskim Google.

Czym był parametr &num= w Google?

Jak działało &num=100 w praktyce

Rank trackery i inne narzędzia SEO nie „klikają” wyników w Google jak zwykły użytkownik. Generują ręcznie adresy URL wyszukiwania, np.:

https://www.google.com/search?q=moz+blog&hl=en&gl=gb&num=100

Taki adres przekazywał Google następujące informacje:

  • q=moz+blog – szukaj frazy „moz blog”,
  • hl=en – język interfejsu: angielski,
  • gl=gb – lokalizacja: Wielka Brytania,
  • num=100 – zwróć do 100 wyników naraz.

W praktyce &num=100 „spłaszczał” 10 paginowanych stron wyników (po 10 wyników organicznych na każdej) do jednego, długiego SERP-a. Dzisiejsze strony wyników są bardziej złożone – mamy featured snippets, karuzele, AI Overviews, local packi itd. – więc faktyczna liczba elementów na stronie to często 15+ wyników. Z perspektywy narzędzi SEO kluczowe było jednak to, że można było:

  • wysłać jedno zapytanie do Google,
  • od razu dostać pełen zakres wyników do 100. pozycji,
  • na tej podstawie policzyć rankingi, widoczność i zidentyfikować elementy SERP.

Dlaczego to było tak ważne dla narzędzi

Możliwość pobrania do 100 wyników jednym wywołaniem ograniczała trzy kluczowe koszty:

  • Proxies i IP – każde zapytanie do Google niesie ryzyko blokady lub CAPTCHA. Im więcej zapytań, tym większa potrzeba korzystania z wielu adresów IP i droższej infrastruktury proxy.
  • Emulacja przeglądarki – aby uzyskać wyniki zbliżone do tego, co widzi realny użytkownik, narzędzia muszą „udawać” prawdziwą przeglądarkę (JS, cookies, nagłówki). To zwiększa koszt każdego requestu.
  • Przetwarzanie HTML – po pobraniu strony trzeba:
    • zidentyfikować wszystkie wyniki organiczne i elementy SERP,
    • wyliczyć pozycje, wysokości pikselowe, typy wyników,
    • zapisać dane w bazie i przekształcić je w raporty.

    Im więcej requestów, tym więcej parsowania i obciążenia serwerów.

Jeden SERP ze 100 wynikami oznaczał więc mniej zapytań, mniejsze ryzyko blokad, niższy koszt przetwarzania – przy zachowaniu dużej głębokości danych o rankingach.

Co się zmieniło – „śmierć” &num=100

Deprecjacja parametru

Od połowy września Google stopniowo zaczął ignorować parametr &num=100. Technicznie nie był on od dawna oficjalnie wspierany, ale działał. Obecnie – nawet jeśli dopiszemy &num=100 do adresu – Google zazwyczaj odsyła tylko pierwszą stronę wyników (ok. 10 tradycyjnych wyników organicznych).

Nie wiadomo, czy to świadoma, strategiczna decyzja Google, czy efekt uboczny innych zmian infrastrukturalnych. Skutek dla narzędzi SEO jest jednak jednoznaczny:

  • jednym zapytaniem nie da się już pobrać „pełnej setki” wyników,
  • konieczne jest paginowanie i „zszywanie” wyników z wielu stron.

Dlaczego to problem dla dokładności danych

Przejście z jednego zapytania na wiele wymusza tzw. stitching (zszywanie wyników). Narzędzie musi pobrać:

  • stronę 1 (pozycje 1–10),
  • stronę 2 (11–20),
  • stronę 3 (21–30),
  • …aż do wybranego limitu (np. 100).

Następnie trzeba połączyć te części w jeden spójny widok SERP-a. I tu zaczynają się problemy:

  • Fluktuacje pozycji „na granicy” stron – jeśli domena skacze między pozycją 10 a 11:

    • podczas pobierania 1. strony może być na 11. (nie zobaczymy jej wcale),
    • podczas pobierania 2. strony już na 10.,

    a finalnie w widoku „zszytym” może zniknąć lub pojawić się w innym miejscu niż w realnym SERP-ie.

  • Różnice w personalizacji i testach A/B – Google może w niewielkim stopniu modyfikować SERP między kolejnymi wywołaniami, co zaburza spójność danych.
  • Koszt i ograniczenia skali – każdy dodatkowy „page” to kolejne IP, czas procesora, pamięć i miejsce na logi. Przy milionach słów kluczowych koszty rosną lawinowo.

Moz i STAT – jak opisuje Tom Capper – mieli już wcześniej przygotowany mechanizm stitching, przetestowany pod kątem jakości danych, więc mogli go szybko uruchomić na większą skalę. Koszt takiego podejścia jednak znacząco rośnie.

Jak narzędzia SEO reagują na zmiany &num=

Ograniczenie głębokości wyników

Aby zachować równowagę między:

  • jakością i głębokością danych,
  • kosztem infrastruktury (którego nie chcą masowo przerzucać na klientów),

narzędzia wprowadzają limity:

  • Moz Pro – dla standardowego rank trackingu pobiera pierwsze 2 strony wyników (około 20 tradycyjnych wyników organicznych, realnie 25–30 elementów z dodatkowymi funkcjami SERP).
  • STAT (narzędzie enterprise) – umożliwia elastyczne pobieranie do 100 wyników, w zależności od potrzeb i budżetu klienta.
  • Keyword Explorer, Link Explorer i inne funkcje analityczne Moz – standardowo analizują około 50 wyników, ponieważ głębsza część SERP-u bywa szczególnie istotna przy:
    • analizie kanibalizacji,
    • analizie konkurencji w long tailu,
    • rozbudowie indeksu linków.

Konsekwencje dla różnych typów analiz

Zmiana parametru &num= najmocniej uderza w:

  • Rank tracking – dane z pierwszej strony są kluczowe, ale:
    • trudniej monitorować „przebijanie się” z dalszych pozycji,
    • fluktuacje w okolicach miejsc 10–20 mogą być nieco mniej stabilne między kolejnymi pomiarami.
  • Keyword research – przy analizie fraz z długiego ogona, na które rankuje nasz serwis lub konkurenci, głębsze wyniki (30–100) często zawierały cenne insighty, które teraz są droższe w pozyskaniu.
  • Budowę indeksów linków – narzędzia takie jak Link Explorer wykorzystują wyniki Google jako jedno ze źródeł nowych URL-i do crawlowania. Płytsze SERP-y oznaczają mniej linków pozyskiwanych tym kanałem.

Co to oznacza dla SEO w Polsce?

Polskie SERP-y również podlegają tym ograniczeniom

Parametr &num= działa (a właściwie – przestał działać) globalnie. Dotyczy to również polskich wyników (google.pl lub google.com z gl=pl i lokalnymi ustawieniami). Narzędzia nie są więc w stanie pobierać 100 wyników jednym zapytaniem w polskim Google.

Konsekwencje dla SEO w Polsce:

  • Mniejsza „głębokość” monitorowania fraz – w szczególności w:
    • konkurencyjnych branżach (e-commerce, finanse, prawo),
    • branżach opartych na long tailu (content, blogi, serwisy poradnikowe).
  • Większa „szumowość” danych na dalszych pozycjach – zwłaszcza jeśli korzystasz z narzędzi, które implementują stitching w prostszy sposób lub ograniczają się do 10–20 wyników.
  • Wyższa bariera dla własnych eksperymentów – jeśli budujesz własny mini-rank-tracker oparty na prostych requestach do Google, Twoje koszty (proxy, serwery, zabezpieczenia przed blokadami) istotnie wzrosną, jeśli chcesz śledzić więcej niż top 10–20.

Jak to wpływa na typowe zadania SEO-wca w Polsce

  • Monitorowanie pozycji
    • dla większości projektów kluczowe są top 10–20, więc ogólny obraz ruchu nie powinien się dramatycznie zmienić,
    • bardziej ucierpią analizy szerokiej widoczności – np. ile mamy słów w TOP 50, TOP 100 itd.
  • Audyt konkurencji
    • trudniej będzie rzetelnie zmapować pełną widoczność dużych portali i marketplace’ów w long tailu,
    • bardziej opłaca się koncentrować na kluczowych klastrach tematycznych niż próbować „objąć wszystko”.
  • Content i strategia link buildingu
    • głębokie wyniki (pozycje 30–100) częściej ujawniają „świeże” treści lub niszowych konkurentów – dostęp do takich danych może być ograniczony lub droższy,
    • warto jeszcze bardziej polegać na danych z GSC, logów serwera, własnej analityki i narzędzi linkowych, a nie wyłącznie na jednym rank trackerze.

Rekomendacje praktyczne

1. Sprawdź, jak zachowuje się Twoje narzędzie

Nie zakładaj, że wszystkie narzędzia działają tak samo. Zrób krótki research:

  • poszukaj w dokumentacji lub changelogach informacji o &num= lub zmianach w rank trackingu od jesieni 2024/2025,
  • sprawdź:
    • ile wyników (jak głęboko) narzędzie faktycznie pobiera dla jednego słowa kluczowego,
    • czy ma różne limity dla rank trackingu i modułów analitycznych (jak Moz Pro vs STAT vs Keyword/Link Explorer),
    • czy pojawiły się nowe limity w planach cenowych lub opcje „deep results” jako płatny dodatek.

2. Zdefiniuj, jakiej głębokości realnie potrzebujesz

Nie każdemu projektowi potrzebne jest TOP 100 dla każdego słowa kluczowego. Uporządkuj priorytety:

  • Dla małych i średnich serwisów:
    • skup się na TOP 10–20 fraz, które realnie generują ruch i sprzedaż,
    • głębsze wyniki monitoruj tylko dla strategicznych tematów lub klastrów contentu.
  • Dla dużych portali i e-commerce:
    • rozważ narzędzia z możliwością elastycznego określania głębokości (np. do TOP 50/100 wyłącznie dla wybranych zestawów słów),
    • łącz dane z rank trackera z GSC, by lepiej zrozumieć widoczność long tailu (pozycje 11–100).

3. Używaj Google Search Console jako uzupełnienia

W świecie, w którym techniczne pobieranie głębokich SERP-ów staje się coraz trudniejsze i droższe, GSC zyskuje na znaczeniu:

  • raport „Skuteczność” pokazuje:
    • zapytania, na które faktycznie pojawiasz się w wynikach,
    • średnią pozycję (również poza TOP 10–20),
    • CTR i liczbę kliknięć,
  • możesz eksportować dane i łączyć je z danymi z rank trackera:
    • do analizy kanibalizacji,
    • do identyfikacji fraz w „strefie wzrostu” (pozycje 11–30),
    • do priorytetyzacji treści do optymalizacji.

4. Zachowaj ostrożność przy interpretacji fluktuacji na granicach stron

Wyniki w okolicach pozycji 10–11, 20–21, 30–31 mogą być teraz mniej stabilne w raportach narzędzi, ponieważ:

  • czas pobierania kolejnych stron może się różnić,
  • Google może minimalnie modyfikować układ SERP między requestami,
  • zszywanie wyników wymaga przyjęcia określonych założeń przez dostawcę narzędzia.

Co z tym zrobić w praktyce?

  • patrz przede wszystkim na trendy tygodniowe i miesięczne, a nie pojedyncze odczyty,
  • monitoruj ruch organiczny i konwersje równolegle z pozycjami,
  • dla kluczowych fraz w krytycznych momentach (np. kampanie) weryfikuj wyniki ręcznie – w trybie incognito lub w innej przeglądarce.

5. Przemyśl, czy własny scraping SERP-ów nadal ma sens

Jeśli w firmie korzystacie z własnych skryptów do pobierania wyników Google, ponownie przeanalizujcie koszty i ryzyko:

  • bez &num=100 konieczne jest:
    • wielokrotne paginowanie,
    • utrzymywanie większej puli IP/proxy,
    • bardziej zaawansowana emulacja przeglądarki,
  • ryzyko blokad i CAPTCHA rośnie wraz z liczbą zapytań,
  • im więcej słów kluczowych monitorujesz, tym szybciej koszty zbliżą się do abonamentu za profesjonalne narzędzie.

W wielu przypadkach bardziej opłacalne i stabilne będzie:

  • ograniczenie własnego scrapingu do minimum,
  • przeniesienie głównego monitoringu do wyspecjalizowanych narzędzi,
  • korzystanie z API narzędzi SEO zamiast bezpośredniego scrapingu Google.

6. Edukuj zespół i klientów

Zmiana parametru &num= to dobry moment, aby urealnić oczekiwania wobec danych SEO:

  • wyjaśnij, że:
    • branża SEO w dużym stopniu opiera się na odczytywaniu wyników Google, a nie na oficjalnym API,
    • Google regularnie utrudnia masowe pobieranie SERP-ów,
    • w związku z tym dane o pozycjach są zawsze modelem/przybliżeniem, a nie „absolutną prawdą”.
  • podkreśl, że celem nie jest „idealny odczyt co do 1 pozycji”, ale:
    • rozumienie trendów,
    • identyfikacja okazji i zagrożeń,
    • optymalizacja pod realne zachowania użytkowników (kliknięcia, konwersje).

Podsumowanie – o co tak naprawdę chodzi w „aferze &num=”?

  • &num=100 pozwalał narzędziom SEO pobierać do 100 wyników jednym requestem do Google.
  • Google przestał respektować ten parametr – obecnie zwraca zazwyczaj tylko pierwszą stronę wyników.
  • Narzędzia muszą teraz:
    • pobierać wiele stron (1–10, 11–20, 21–30 itd.),
    • zszywać je w jeden SERP,
    • ponosić znacznie wyższe koszty infrastruktury.
  • W odpowiedzi:
    • ograniczają domyślną głębokość wyników (np. do 20, 50, 100),
    • wprowadzają różne limity dla różnych modułów (rank tracking vs analityka),
    • mogą w przyszłości dostosowywać ceny do wzrostu kosztów.
  • Dla SEO-wców w Polsce kluczowe jest:
    • rozumieć ograniczenia narzędzi,
    • rozsądnie dobierać głębokość monitorowania,
    • łączyć dane z różnych źródeł (GSC, analytics, rank trackery),
    • traktować pozycje jako wskaźnik trendu, a nie absolutną prawdę.

Źródło: Moz.com

Podobne wpisy

google-analytics
ahrefs-logo
hotjar-logo
gcloud
clockify_logo_white_subtract
trello-logo

ENOBO SP. Z O. O. ul. Nad Nielbą 39B/4, 62-100 Wągrowiec NIP: 7662011348 REGON: 527940436

Copyright © 2026

Przydatne linki

Zajrzyj do nas