Świat wyszukiwania przestaje być listą niebieskich linków, a coraz częściej staje się zbiorem odpowiedzi generowanych przez modele językowe (LLM). Artykuł Toma Cappera z Moz wyjaśnia kluczową różnicę między „in‑model” i „out‑of‑model responses” – czyli odpowiedziami tworzonymi wyłącznie z danych treningowych modelu oraz tymi, które korzystają z aktualnych wyników wyszukiwania. To rozróżnienie staje się fundamentem nowej strategii SEO, zwłaszcza w kontekście AI Overviews, AI Mode i innych hybrydowych doświadczeń Google.
Poniżej znajdziesz podsumowanie idei z Whiteboard Friday, ich przełożenie na polską rzeczywistość SEO oraz konkretne wskazówki, jak przygotować strategię pod „LLM grounding” i widoczność w odpowiedziach AI.
In‑model vs. out‑of‑model – o co chodzi?
Capper proponuje, aby odpowiedzi generowane przez LLM dzielić na dwa tryby:
- in‑model response – odpowiedź powstaje wyłącznie z wewnętrznej „pamięci” modelu, czyli danych treningowych, bez sięgania do aktualnego internetu;
- out‑of‑model response – model wykonuje dodatkowe zapytania (tzw. grounding), zwykle do wyszukiwarki (Google/Bing), aby zweryfikować fakty lub pobrać świeże informacje.
To, który tryb zostanie użyty, zależy od charakteru zapytania. Jeśli pytasz o coś ponadczasowego („napisz wiersz”, „wyjaśnij prawo grawitacji”), model nie ma powodu sięgać do sieci. Jeśli jednak w grę wchodzą aktualności, konkretne fakty lub daty („co się wydarzyło w core update z grudnia 2025?”), LLM zwykle wykonuje serię dodatkowych wyszukiwań i dopiero z ich wyników konstruuje odpowiedź.
In‑model responses – kiedy wygrywa „pamięć” modelu
Czym są in‑model responses?
To odpowiedzi generowane wyłącznie na podstawie danych, na których model był trenowany, np.:
- „Napisz wiersz o SEO w stylu Słowackiego”,
- „Wyjaśnij, czym jest kanibalizacja słów kluczowych”,
- „Podaj ogólne wskazówki dotyczące optymalizacji title tagów”.
Model nie musi tu „sprawdzać w Google”, bo takie informacje ma już zakodowane wewnętrznie. Z punktu widzenia SEO kluczowy problem jest taki, że nie masz praktycznie żadnej krótkoterminowej kontroli nad tym, co jest w pamięci modelu.
Dlaczego trudno na to wpływać?
- Dane treningowe są zamrożone – GPT‑4 zakończył trening ok. końcówki 2022 r., GPT‑4.5 według Cappera – ok. sierpnia 2024 r. Pomiędzy kolejnymi wersjami mijają lata.
- Zakres danych jest ogromny – to nie tylko strony www, ale też książki, artykuły naukowe, treści z serwisów społecznościowych itd.
- Brak bezpośredniego „przycisku” do aktualizacji – żadna szybka zmiana na stronie nie trafi od razu do pamięci modelu.
W praktyce, jeśli model wewnętrznie nauczył się konkretnej definicji, sposobu opowiadania o marce czy produkcie, nie „nadpiszesz” tego małą kampanią contentową. Masz wpływ głównie w długim terminie – budując szeroki ślad treściowy, który być może zasili kolejne wersje modeli.
Out‑of‑model responses – tam, gdzie decyduje Google
Kiedy model robi grounding?
Out‑of‑model response pojawia się, gdy LLM dochodzi do wniosku, że potrzebuje:
- potwierdzić fakty („czy w ogóle był core update w grudniu 2025?”),
- pozyskać bieżące informacje (ceny, wyniki, zmiany w produktach),
- zbudować szerszy kontekst (kto był najbardziej dotknięty zmianą algorytmu, jakie były reakcje rynku itp.).
Wtedy model wykonuje „fan‑out” zapytań – zadaje do wyszukiwarki serię złożonych fraz (często dłuższych i mniej „ludzkich” niż typowe zapytania SEO), pobiera kilka pierwszych wyników, syntetyzuje treść i na tej podstawie generuje odpowiedź.
Dlaczego to jest kluczowe dla SEO?
Tu wchodzimy w obszar, na który SEO może realnie wpływać:
- Tempo wpływu – wystarczy, że Google zaindeksuje i przeliczy Twoje treści. To kwestia godzin–dni, a nie lat.
- Źródło prawdy – LLM nie „preferuje” Twojej strony. Liczy się to, co widzi w SERP‑ach. Jeśli dominują tam duże portale, ich narracja staje się bazą odpowiedzi AI.
- Nowy rodzaj „rankingu” – chodzi nie tylko o pozycję w klasycznym SERP, ale o to, czy Twoje treści trafią do zbioru dokumentów, na podstawie których AI buduje odpowiedź.
Jak wpływać na out‑of‑model responses? (wg Moz + komentarz)
1. Barnacle SEO – „podczep się” pod silne domeny
Capper wskazuje barnacle SEO jako obecnie najskuteczniejszą taktykę. Chodzi o to, aby Twoja marka i przekaz były obecne:
- na autorytatywnych profilach społecznościowych (LinkedIn, YouTube, X, Facebook, Instagram),
- w serwisach publikacji eksperckich (Medium, portale branżowe, serwisy opiniotwórcze),
- w encyklopediach i bazach wiedzy (Wikipedia, branżowe katalogi, repozytoria),
- w rankingach, porównaniach i zestawieniach (np. „top narzędzia SEO”, „najlepsze agencje w Warszawie”).
LLM, robiąc grounding, sięga po to, co podsuwa mu Google. Jeśli w top wynikach dominują duże portale, zadbaj o to, aby właśnie tam pojawiały się Twoje dane, opinie, case studies. Nawet jeśli użytkownik nie zobaczy linku, model może „przenieść” Twoją narrację do odpowiedzi AI.
2. Digital PR – wpływanie na autorytety, których nie kontrolujesz
Drugi filar to cyfrowy PR, rozumiany nie tylko jako pozyskiwanie linków, ale realny wpływ na treści w zewnętrznych serwisach:
- eksperckie wypowiedzi w artykułach branżowych,
- cytowania w raportach, badaniach, zestawieniach,
- gościnne publikacje (guest posting) na silnych domenach,
- udział w podcastach, webinarach, konferencjach – które często są później transkrybowane i indeksowane.
To wszystko zwiększa szansę, że narracja o Twojej marce, produkcie czy kategorii trafi do top wyników na zapytania, które LLM wykorzystuje w grounding search – a więc finalnie do treści odpowiedzi AI.
3. Aktualizuj własną stronę – fundament pozostaje ważny
Trzeci element to nadal klasyczne SEO on‑site, ale z nową perspektywą:
- twórz treści pod zapytania „analityczne” – takie, jakie LLM może generować jako fan‑out (obszerne, opisujące wpływ, przyczyny, skutki), a nie tylko pod typowe short‑tail keywords,
- dbaj o aktualność – jasne daty aktualizacji, sekcje „ostatnio zaktualizowano”, dopiski o zmianach (np. kolejnych core update’ach czy nowościach produktowych),
- mocne E‑E‑A‑T (doświadczenie, ekspertyza, autorytet, wiarygodność) – podpisani autorzy, bio, referencje, źródła, dane kontaktowe,
- techniczna klarowność – poprawna struktura nagłówków, dane strukturalne, szybkie ładowanie, brak blokad indeksacji.
Twoja strona może nie być jedynym źródłem w grounding search, ale im lepiej jest przygotowana, tym większa szansa, że trafi do zestawu dokumentów, które LLM „czyta” przed wygenerowaniem odpowiedzi.
Co to oznacza dla SEO w Polsce?
Polski rynek ma kilka specyficznych cech, które modyfikują wnioski z artykułu Moz:
1. Mniej danych po polsku w modelach
Modele LLM są w dużej mierze trenowane na danych anglojęzycznych. Dla polskiego SEO oznacza to:
- większe „prześwity” w wiedzy in‑model – model może gorzej znać lokalne brandy, usługi i kontekst; tym ważniejsza staje się faza grounding, w której sięga do polskiego Google,
- szansę na szybciej zdobywany autorytet – w polskim internecie jest mniej rozbudowanej, wysokiej jakości treści niż w anglojęzycznym, więc dobrze przygotowane materiały mają relatywnie większą wagę.
2. Dominacja kilku dużych portali
W Polsce szczególnie silne są duże portale i serwisy horyzontalne (Onet, WP, Interia, Gazeta.pl, duże portale branżowe). LLM, pobierając informacje:
- często będzie opierał się właśnie na nich,
- co wymusza myślenie barnacle SEO i digital PR także na poziomie lokalnych mediów, katalogów branżowych i agregatorów.
Jeśli Twój brand lub produkt nie istnieje w ekosystemie tych serwisów, to dla modelu w praktyce „nie istnieje” w polskiej sieci.
3. Lokalne zapytania i kontekst geograficzny
Wyszukiwania typu „najlepszy dentysta w Krakowie” czy „biuro rachunkowe online opinie” to klasyczne pola działania lokalnego SEO. W erze AI search:
- odpowiedzi mogą być generowane jako AI Overviews zamiast listy linków,
- model będzie korzystał z Google Maps, opinii, lokalnych katalogów, a także artykułów i rankingów lokalnych mediów.
Polskie SEO musi więc myśleć nie tylko o pozycjach w „10 niebieskich linkach”, ale o tym, jak zostać źródłem dla lokalnych poradników, zestawień i rankingów, które AI będzie czytać.
4. Język mieszany – PL + EN
Użytkownicy w Polsce często miksują polski i angielski w zapytaniach („core update grudzień 2025 skutki dla SEO w Polsce”). LLM może wtedy:
- sięgać po treści anglojęzyczne (szerszy kontekst),
- i równocześnie po polskie źródła (lokalne przykłady, case’y, komentarze).
To argument, aby tworzyć content dwujęzyczny w kluczowych obszarach (np. case studies PL/EN, strony produktowe, raporty), co zwiększa szansę, że Twoja narracja „załapie się” zarówno do globalnego, jak i lokalnego kontekstu odpowiedzi AI.
Rekomendacje praktyczne
1. Zmapuj zapytania „in‑model” vs „out‑of‑model” w swojej branży
- Przeanalizuj listę kluczowych fraz i tematów:
- in‑model – definicje, ogólne porady, evergreenowe „jak to działa?”,
- out‑of‑model – aktualności, zmiany prawne, promocje, nowości produktowe, lokalne zestawienia, core update’y itd.
- Załóż, że na in‑model masz ograniczony wpływ krótkoterminowo – tam Twoją rolą jest budowanie ogólnego autorytetu w długim horyzoncie.
- Skup wysiłki SEO na zapytaniach, które zmuszają model do grounding – tam możesz relatywnie szybko zmieniać odpowiedzi AI.
2. Zaprojektuj strategię „AI SERP ownership”
Myśl nie tylko o „Top 3 w Google”, ale o tym, z jakich źródeł AI złoży odpowiedź:
- Przeanalizuj pierwszą stronę wyników dla najważniejszych zapytań:
- Które domeny dominują?
- Na których z nich możesz zaistnieć (artykuł, wywiad, profil, ogłoszenie, listing)?
- Stwórz plan obecności na:
- portalach branżowych (artykuły eksperckie, komentarze),
- dużych mediach (case studies, raporty, opinie),
- platformach typu LinkedIn, YouTube (regularne, dobrze opisane treści),
- katalogach i marketplace’ach (pełne, aktualne profile).
3. Wzmocnij sygnały eksperckości (E‑E‑A‑T) z myślą o AI
- Dodaj profile autorów z jasnym opisem doświadczenia, linkami do mediów, wystąpień, publikacji.
- Linkuj do zewnętrznych źródeł i badań, aby Twoje treści łatwo wpisywały się w większy kontekst, który AI „skleja” z wielu dokumentów.
- Buduj spójny wizerunek eksperta między stroną, LinkedIn, YouTube i wystąpieniami w mediach – tak, by model, czytając różne źródła, widział powtarzającą się osobę/markę jako autorytet.
4. Dostosuj format contentu do „czytania przez AI”
- Strukturyzuj treść:
- krótkie akapity, wypunktowania, śródtytuły,
- sekcje typu „Podsumowanie”, „Kluczowe wnioski”, „Najczęstsze błędy” – AI chętnie używa ich jako gotowych fragmentów odpowiedzi.
- Stosuj jasne, jednoznaczne sformułowania (zamiast marketingowego „puchu”), które łatwo zacytować lub sparafrazować.
- Dodawaj daty, wersje, numery (np. nazwę update’u, rok badania), aby AI miało konkretne „haki”, do których może się odnieść.
5. Mierz widoczność w AI i testuj wpływ zmian
- Obserwuj, jak Twoje zapytania pojawiają się:
- w AI Overviews (jeśli są dostępne),
- w wynikach z AI Mode (Google) i innych hybrydowych rozwiązaniach,
- w odpowiedziach ChatGPT / innych LLM (przy zapytaniach zawierających Twoją markę lub kategorię).
- Po wprowadzeniu zmian (np. publikacji artykułu na dużym portalu) wróć do tych zapytań po kilku dniach lub tygodniach i sprawdź, czy:
- zmieniła się narracja w odpowiedzi AI,
- pojawiają się nowe fakty, dane, przykłady, które pochodzą z Twoich treści.
6. Myśl o SEO jak o „uczeniu modelu świata”, nie tylko o pozycjach
Kluczowa zmiana mentalna: budujesz nie tylko ranking w Google, ale „mapę świata” widzianą przez LLM. Każdy materiał, wywiad, profil czy case study to cegiełka w tym, jak AI rozumie Twoją branżę i Twój brand.
- Planuj działania w długim horyzoncie:
- rozsiewanie wiedzy eksperckiej po wielu źródłach,
- budowanie rozpoznawalności marki jako domyślnego przykładu w danej kategorii,
- pielęgnowanie spójnej narracji, która pojawia się w wielu miejscach.
- Akceptuj, że wpływ na in‑model będzie zawsze wolniejszy, ale działania, które dziś realizujesz pod grounding (out‑of‑model), jutro mogą stać się częścią danych treningowych kolejnych modeli.
Źródło: Moz.com