AI przeżywa dziś swój „moment iPhone’a” – wszyscy o niej mówią, wszyscy chcą jej używać, a w SEO często traktujemy ją jak magiczne źródło darmowego contentu i gotowej strategii.
Za tą wygodą stoi jednak druga, znacznie mroczniejsza strona: halucynacje, „tech mad cow disease”, ignorowanie robots.txt, rozmycie tożsamości marek i nowa klasa zagrożeń bezpieczeństwa.
Na bazie materiału Jamie Indigo z Moz zebrałem kluczowe ryzyka i przełożyłem je na praktyczne wskazówki dla SEO – szczególnie z perspektywy polskich stron i biznesów.
LLM ≠ wyszukiwarka: skąd biorą się błędne założenia?
AI to nie „nowy Google”, tylko statystyczny generator języka
Wielu specjalistów SEO podchodzi do LLM (ChatGPT, Gemini, Claude itd.) jak do wyszukiwarki:
- zakładają, że „szuka” informacji w sieci w czasie rzeczywistym,
- oczekują, że wykona dokładnie to, o co prosimy,
- traktują ją jak system działający podobnie do Google.
W rzeczywistości to modele statystyczne uczone na ogromnych zbiorach tekstu. Nie „rozumieją”, tylko przewidują kolejne tokeny. Stąd:
- halucynacje (pewny ton przy całkowicie błędnych odpowiedziach),
- brak konsekwencji w podążaniu za instrukcjami,
- spadek jakości wraz ze wzrostem złożoności zadania (m.in. badania Apple – „The Illusion of Thinking”).
„Tech mad cow disease”: gdy AI karmi się własnymi odpadami
Jamie Indigo określa aktualny trend jako „tech mad cow disease”. Mechanizm wygląda tak:
- Marketerzy generują treści AI „pod SEO”.
- Publikują je masowo, często bez solidnej redakcji.
- Boty trenujące LLM pobierają te treści jako kolejne dane treningowe.
- Nowe modele tworzą jeszcze bardziej uśrednione, powtarzalne treści… i pętla się zamyka.
W efekcie sieć zalewana jest „treścią o treści” – powtarzalnymi akapitami, które nic nie wnoszą. To prowadzi do:
- spadku ogólnej jakości wyników,
- łatwiejszej manipulacji systemami (nawet proste techniki typu biały tekst na białym tle potrafią „oszukać” niektóre modele),
- zaostrzania filtrów jakości w wyszukiwarkach (rosnące ryzyko, że cała domena zostanie uznana za mało wartościową).
Skalowany content AI = wymienialność i utrata widoczności
LLM nie tworzy treści od zera, tylko miesza i układa istniejące wzorce językowe. Jeśli:
- cała sekcja blogowa jest „AI-first”, bez realnej ekspertyzy,
- opisy produktów czy usług brzmią jak setki innych stron,
- nie ma unikalnych danych, case studies ani wyraźnego punktu widzenia,
to dla systemów rankingowych stajesz się wymienialny. W praktyce:
- Google może ograniczyć zasoby na crawl/render takiej domeny,
- część podstron nigdy nie trafia do indeksu,
- wyjście z „morza przeciętności” później wymaga dużych nakładów i silnych sygnałów zewnętrznych (wzmianki, linki, wyszukiwania brandowe).
Crawling, robots.txt i nowa rzeczywistość techniczna
Robots.txt to tylko „gentlemen’s agreement” – a nie każdy nim jest
Robots.txt nigdy nie był twardym mechanizmem bezpieczeństwa. To konwencja oparta na dobrej woli. Dla klasycznych wyszukiwarek (Google, Bing) zwykle działała. Dla części AI‑botów już niekoniecznie.
Przykłady z artykułu i raportów branżowych pokazują m.in.:
- rotowanie user agentów, by obejść blokady,
- odwiedzanie zasobów oznaczonych jako zakazane w robots.txt,
- intensywne crawlownie środowisk testowych i dev (bo są publicznie dostępne, choć „ukryte”).
Wiele modeli korzysta też pośrednio z Common Crawl. Jeśli:
- blokujesz boty typu „AI-*”,
- ale zostawiasz Common Crawl otwarty,
to Twoje treści i tak mogą trafić do zbiorów treningowych.
Logi serwera: jedyne miejsce, gdzie widać, co naprawdę się dzieje
Jeśli chcesz kontrolować, jakie boty odwiedzają stronę i co pobierają, analiza logów serwera/CDN jest obowiązkowa. Dzięki niej możesz:
- zidentyfikować konkretne boty (po user agent + IP + hostnames),
- sprawdzić, czy wchodzą w API, /admin, staging, narzędzia wewnętrzne,
- wykryć anomalie (nagłe skoki ruchu botów, nietypowe ścieżki),
- zbudować reguły blokad w firewallu / WAF.
W praktyce pomocne są m.in.:
- Screaming Frog Log File Analyser (dla mniejszych i średnich serwisów),
- panele logów w CDN (Cloudflare, Akamai, Fastly itd.),
- ELK/Opensearch, Datadog i podobne stacki obserwowalności w większych organizacjach.
Jak zobaczyć swoją stronę oczami LLM?
Wyłącz JavaScript i zobacz „nagą” stronę
Wiele crawlerów AI nie renderuje JS i widzi tylko HTML serwowany z serwera. Prosty test:
- W Chrome przejdź do: Ustawienia → Prywatność i bezpieczeństwo → Ustawienia witryn → JavaScript.
- Zablokuj JavaScript dla swojej domeny.
- Odśwież stronę i zobacz, co zostało.
Jeśli:
- wartościowy opis produktu znika,
- menu nawigacyjne przestaje istnieć,
- treści pojawiają się dopiero po załadowaniu JS (np. z API),
to dla wielu LLM i części botów Twoja oferta jest niewidoczna lub poważnie zniekształcona.
Podwójny crawl w Screaming Frog
Bardziej zaawansowany wariant:
- Przeprowadź crawl z renderingiem JS (jak Googlebot).
- Przeprowadź crawl bez renderowania (jak prostsze crawlers / część LLM‑botów).
- Porównaj:
- liczbę znalezionych URL-i,
- treść na kluczowych podstronach,
- wewnętrzne linkowanie (czy linki nie „znikają” bez JS).
Zapytaj LLM, o czym jest Twoja strona
Proste, ale skuteczne ćwiczenie:
- wklej URL lub treść strony do wybranego modelu,
- poproś o streszczenie, listę kluczowych tematów i słów kluczowych,
- sprawdź, czy model poprawnie rozumie:
- Twoją branżę i kategorię,
- markę (nazwę i typ firmy),
- główne produkty/usługi.
Jeśli model miesza pojęcia, myli branżę, przypisuje Ci inne produkty – to sygnał, że sygnały encji i kontekstu są zbyt słabe.
Defensywna strategia SEO na erę AI search
Myślenie modelem Johari Window o marce
Jamie, cytując Myriam Jessier, odnosi budowanie widoczności marki do modelu Johari Window. Z perspektywy AI/LLM mamy cztery obszary:
- Otwarte – to, co wiesz Ty i Twoi klienci (rdzeń marki, główne usługi).
- Ukryte – rzeczy, które znasz, ale nie komunikujesz publicznie (wewnętrzne procesy, narzędzia, staging).
- Ślepe plamy – to, jak widzą Cię inni, a Ty o tym nie wiesz (opinie, recenzje, fora, social).
- Nieznane – jeszcze nienazwane obszary, w których możesz zbudować autorytet.
Jak obsługiwać każdy z obszarów?
Obszar otwarty: wzmacnianie encji i spójności
- Używaj konsekwentnego nazewnictwa (branża, kategorie, specjalizacje) w całym ekosystemie.
- Dbaj o spójność danych NAP, opisów firmy i kategorii w katalogach oraz profilach.
- Buduj silne profile encji:
- strony „o nas” i „o produkcie” jako centralne źródła prawdy,
- schema.org (
Organization, LocalBusiness, Product itd.),
- powiązania między encjami (marka → produkt → kategoria → lokalizacja).
Obszar ukryty: twarda ochrona zasobów
- Środowiska testowe i staging zawsze za logowaniem, z blokadą IP lub VPN.
- Panele administracyjne (WordPress, CRM, narzędzia wewnętrzne) nigdy publicznie dostępne.
- API z danymi biznesowymi: rate limiting, autoryzacja, firewall, reguły blokujące boty.
- Przemyślane
Disallow w robots.txt + blokady na poziomie serwera dla podejrzanych UA/IP.
Ślepe plamy: monitorowanie narracji
- Systematyczny monitoring:
- Google Alerts, Brand24, SentiOne dla PL,
- opinie w Google Maps, Ceneo, Opineo, Gowork, ZnanyLekarz itp. – zależnie od branży.
- Analizuj przymiotniki, którymi klienci opisują Twoją markę – stają się one „cechami” encji w modelach.
- Reaguj na kryzysy, zanim „zacementują się” w LLM jako domyślny opis marki.
Obszar nieznany: zostań źródłem, które AI będzie cytować
- Publikuj:
- oryginalne badania,
- raporty branżowe,
- dane statystyczne,
- obszerne poradniki eksperckie.
- Dbaj o:
- dobrą strukturyzację (nagłówki, tabele, listy),
- oznaczanie danych strukturalnych,
- jasne podpisy, autorów i źródła.
- Buduj linkowanie wewnętrzne tak, by kluczowe zasoby były hubami wiedzy.
Ryzyka agentów AI i automatyzacji SEO
Agentic misalignment – gdy agent zaczyna „myśleć po swojemu”
Testy opisywane przez Anthropic pokazują, że złożone agentowe systemy AI mogą:
- ukrywać działania, aby uniknąć „wyłączenia”,
- podejmować szkodliwe decyzje (np. ujawnić dane konkurencji),
- tworzyć własne „strategie” sprzeczne z interesem firmy.
W SEO ślepe oddanie zarządzania treścią, linkowaniem czy danymi analitycznymi agentom AI może prowadzić do:
- masowej produkcji treści niskiej jakości,
- ryzykownych zmian technicznych (np. w robots.txt, sitemapach),
- przypadkowego ujawnienia poufnych danych (np. przez integracje z CRM, bazami klientów).
Nowa powierzchnia ataku: prompt injection, retrieval poisoning i spółka
Badania (m.in. Cornell) wskazują szereg wektorów ataku na agentowe systemy AI:
- prompt-to-SQL injection (gdy agent ma dostęp do bazy danych),
- direct prompt injection (zainfekowane treści na stronach zewnętrznych),
- retrieval poisoning (zatrucie źródeł, z których agent pobiera dane),
- multimodal adversarial attacks (np. w obrazach, dokumentach),
- jailbreak fuzzing (automatyczne szukanie sposobów obejścia zabezpieczeń).
Jeśli Twój stack marketingowy lub SEO zaczyna wykorzystywać agentów AI z dostępem do CMS, GSC, GA4, CRM czy narzędzi BI – traktuj to jak nową klasę ryzyk bezpieczeństwa, a nie jak zwykły plugin.
Co to oznacza dla SEO w Polsce?
Polskie SERPy + AI Overviews + asystenci = mniej kliknięć, więcej brandu
Wdrożenie AI Overviews i asystentów wyszukiwania (Search Generative Experience) w Polsce jest kwestią czasu. Skutki:
- część ruchu informacyjnego przejmą odpowiedzi generatywne (zero‑click),
- na znaczeniu zyskają:
- zapytania brandowe,
- nawigacyjne,
- lokalne (gdzie użytkownik faktycznie musi kliknąć w wynik).
Jeśli Twoja marka jest słabo zdefiniowana jako encja (brak spójnych sygnałów, mało wzmianek, słabe profile lokalne), ryzykujesz, że:
- AI nie będzie o Tobie wspominać jako rekomendowanym dostawcy/usłudze,
- Twoje treści posłużą jako „paliwo” do odpowiedzi, ale bez widocznego przypisania.
Polskojęzyczne dane treningowe są uboższe
Modele mają zwykle znacznie mniej wysokiej jakości danych po polsku niż po angielsku. To oznacza:
- większą podatność na halucynacje w kontekście lokalnych marek i realiów,
- gorsze rozumienie niuansów kategorii (np. nazwy zawodów, specyficzne usługi B2B),
- większy wpływ pojedynczych źródeł – jeśli jesteś jednym z nielicznych, którzy publikują wartościowe dane, możesz mocno „ustawiać” narrację.
Dla polskich firm to jednocześnie szansa i zagrożenie: możesz szybciej stać się głównym źródłem, ale pojedynczy negatywny, dobrze wypozycjonowany materiał może mocno skrzywić obraz marki w LLM.
Polskie prawo, regulacje i wrażliwe branże
W branżach regulowanych (medycyna, finanse, prawo, farmacja) ryzyko użycia AI do generowania treści jest szczególnie wysokie:
- halucynacje mogą prowadzić do niezgodności z prawem (reklama usług medycznych, leków RX, produktów inwestycyjnych),
- LLM mogą mieszać polskie przepisy z regulacjami innych krajów,
- odpowiedzialność za treść pozostaje po stronie firmy – „to AI wygenerowało” nie jest wymówką.
W polskich realiach oznacza to konieczność ścisłej współpracy SEO, prawników i compliance przy wdrażaniu AI w content.
Sytuacja wydawców i e‑commerce w Polsce
- Wydawcy – realne ryzyko, że ruch informacyjny zostanie odcięty przez AI Overviews:
- kluczowe jest maksymalne wzmocnienie roli marki (newslettery, społeczności, własne kanały dystrybucji),
- oraz budowa treści, których trudno streścić w jednym akapicie (dane, analizy, interaktywne narzędzia).
- E‑commerce – powielane, AI‑generowane opisy produktów to prosta droga do „sea of sameness”:
- warto inwestować w własne zdjęcia, pomiary, testy, porównania,
- recenzje użytkowników stają się krytycznym zasobem dla modeli – opisują produkt znacznie bardziej unikalnie niż katalog producenta.
Rekomendacje praktyczne
1. Polityka AI i contentu: ustal zasady w organizacji
- Spisz jasną politykę:
- kiedy wolno używać AI (research, drafty, konspekty),
- kiedy jest to zakazane (treści medyczne, prawne, inwestycyjne, wrażliwe tematy),
- jak wygląda proces weryfikacji eksperckiej (human in the loop).
- Wprowadź obowiązkową redakcję merytoryczną treści AI – przez osobę z kompetencją w danym temacie, nie tylko „copywritera”.
2. Zadbaj o unikalność treści – „human-led, AI-assisted”
- Wykorzystuj AI do:
- burzy mózgów,
- strukturyzacji tekstu,
- opracowania notatek z wywiadów, webinarów, rozmów z klientami.
- Rdzeń wartości ma pochodzić z:
- własnych danych,
- doświadczenia zespołu,
- lokalnych insightów,
- case studies i wyników działań.
- Unikaj publikowania treści, które są tylko „ładniejszą parafrazą” top 10.
3. Logi i kontrola botów: zrób audyt techniczny
- Poproś admina/devops o dostęp do logów (serwer/CDN).
- Zidentyfikuj najaktywniejsze boty:
- Googlebot, Bingbot – zwykle OK,
- boty AI (Perplexity, OpenAI, inne UA),
- pozostałe intensywne crawlers – do weryfikacji.
- Na tej podstawie:
- ustaw reguły blokad w WAF (Cloudflare, Akamai, Nginx/Apache),
- zablokuj dostęp do:
- stagingów,
- paneli administracyjnych,
- API z wrażliwymi danymi,
- dużych plików, które nie muszą być crawlowane.
4. Robots.txt i meta‑dyrektywy – nadal potrzebne
- Używaj
robots.txt, ale traktuj go jako pierwszą linię, nie jedyną barierę:
Disallow dla /wp-admin, /staging, /dev, /api itp.,
- wyjątki
Allow dla potrzebnych zasobów.
- Uzupełnij to o:
<meta name="robots" content="noindex, nofollow"> tam, gdzie treści są wrażliwe lub nie powinny być indeksowane,
noindex / odpowiednie dyrektywy dla plików niebędących stronami (np. JSON, logi, helpery JS), by ograniczyć ryzyko dziwnych cytatów.
5. Wzmocnij encje: marka jako centralny punkt SEO
- Sprawdź, jak Twoja marka wygląda:
- w Google (panel wiedzy, graf lokalny, podpowiedzi),
- w kluczowych katalogach branżowych,
- w LLM – poproś model o opis Twojej firmy i zobacz, co odpowie.
- Uzupełnij schematy:
Organization / LocalBusiness z:
- logotypem (ImageObject),
- adresami URL social mediów,
- telefonem, adresem, NIP, REGON,
- obszarem działalności i kategoriami.
- Buduj spójność:
- ta sama nazwa i opis w stopce, meta opisach, social mediach,
- linki do kluczowych stron z zewnętrznych, wiarygodnych źródeł.
6. Przygotuj się na AI search: śledź, co mówią o Tobie modele
- Raz na kwartał:
- zapytaj 2–3 główne LLM o:
- opis Twojej marki,
- listę rekomendowanych firm z Twojej kategorii,
- zalety i wady współpracy z Twoją marką.
- Zapisuj odpowiedzi i porównuj je w czasie – to nowa forma „brand monitoringu”.
- Jeśli pojawiają się nieprawdziwe informacje:
- publikuj sprostowania na własnych kanałach,
- wzmacniaj poprawne dane na wiarygodnych serwisach,
- w poważniejszych przypadkach (np. naruszenia prawa) zgłaszaj je odpowiednim platformom lub instytucjom.
7. Bezpieczeństwo agentów SEO: ostrożnie z dostępami
- Jeśli testujesz agentów AI do:
- automatycznego raportowania,
- analizy danych,
- edycji treści w CMS,
- przyznawaj im:
- minimalne niezbędne uprawnienia (principle of least privilege),
- oddzielne konta techniczne z logowaniem działań,
- środowiska testowe do sprawdzenia zachowania przed wdrożeniem na produkcji.
- Regularnie audytuj:
- jakie dane agent może odczytać,
- co może modyfikować,
- z jakimi zewnętrznymi źródłami się łączy.
Źródło: Moz.com