SEO – co to jest? Optymalizacja i pozycjonowanie w erze AI search

Artykuły SEO

What you will find in this article:

SEO — definicja w jednym zdaniu

SEO (Search Engine Optimization) to proces zwiększania widoczności strony w wynikach wyszukiwania Google i innych systemów wyszukiwania — zarówno klasycznych, jak i opartych na AI.

Prościej: SEO sprawia, że ludzie (i maszyny) znajdują Twoją stronę, gdy szukają tego, co oferujesz.

SEO w 30 sekund

  1. Co to jest: Optymalizacja strony i działania poza nią, żeby Google (i AI search) pokazywały Twoją stronę wyżej i cytowały ją w odpowiedziach.
  2. Jak działa: Google crawluje → indeksuje → rankuje Twoją stronę na podstawie setek sygnałów. SEO wpływa na te sygnały.
  3. Po co: Ruch organiczny = ludzie, którzy aktywnie szukają tego, co oferujesz. Bez kosztu za kliknięcie. Z czasem taniej i skuteczniej niż reklamy.

SEO (Search Engine Optimization) to proces oddziaływania na systemy wyszukiwania w celu zwiększenia widoczności strony w organicznych wynikach. W 2026 roku to znacznie więcej niż optymalizacja pod Google. SEO obejmuje obecność w AI Overviews, cytowania w modelach językowych (ChatGPT, Perplexity, Gemini) i budowanie klarownej marki jako encji rozpoznawalnej przez algorytmy retrieval.

Nazywam się Szymon Słowik, zajmuję się SEO zawodowo pod własną firmą od 2012 roku. Jestem twórcą BUXS Framework, prelegentem na BrightonSEO, keynote speakerem Baltic SEO Summit, konsultantem dla marek takich jak Brand24, Santander, ALDI czy eSky Group. W tym artykule pokazuję, czym naprawdę jest SEO w dzisiejszych realiach, dlaczego nie umiera (wbrew temu, co słyszysz co kwartał) i jak zmienia się pod wpływem AI search.

TL;DR

  • SEO to nie zestaw trików, tylko systematyczne uczestnictwo w probabilistycznym systemie retrieval i rankingu. Kto tego nie rozumie, optymalizuje na ślepo.
  • AI Overviews i AI Mode zmieniają nie tyle sam ruch, co atrybucję. Problem nie polega na tym, że SEO nie działa. Problem w tym, że trudniej udowodnić, że działa.
  • Navboost (potwierdzony w Google Leak i dokumentach DOJ) łączy UX bezpośrednio z rankingiem. Strona wolna, nieintuicyjna albo odpychająca wizualnie zostanie zestrzeliwana przez sygnały behawioralne, nawet przy mocnych linkach.
  • EEAT nie jest checklistą do odhaczenia. To efekt posiadania klarownej marki jako encji. Jeśli Google i LLM-y nie wiedzą, kim jesteś, Twoje treści mają niższy priorytet w retrieval.
  • Information gain jest warunkiem koniecznym. Treść, która powtarza to, co już jest w SERP, nie ma szans na stabilne pozycje.
  • SEO nie umiera. Ekosystem się poszerza. Do klasycznego wyszukiwania dochodzą AI search, Social SEO, agentic commerce i optymalizacja pod modele językowe. Kto tego nie widzi, kurczy się zamiast rosnąć.

Definicja SEO – co się zmieniło

SEO (ang. Search Engine Optimization) to proces systematycznego wpływania na systemy wyszukiwania w celu zwiększenia widoczności strony w organicznych wynikach. Na SEO składają się działania techniczne, contentowe, linkowe i brandowe, których celem jest obniżenie kosztu retrieval (pobrania treści przez system wyszukiwania) i podniesienie prawdopodobieństwa pojawienia się w wynikach na dane zapytanie.

W Polsce SEO nazywane jest też pozycjonowaniem, chociaż to pojęcie jest nieco węższe i historycznie kojarzy się głównie z budowaniem linków. Globalnie SEO to ogół działań optymalizacyjnych na stronie i poza nią.

Hm, ale co się właściwie zmieniło w porównaniu z definicjami, które krążyły jeszcze 3-4 lata temu?

Przede wszystkim poszerzył się ekosystem. W 2022 roku SEO oznaczało w praktyce „bądź wysoko w Google.” Teraz SEO to bycie widocznym w Google, w AI Overviews, w AI Mode, w ChatGPT Search, w Perplexity, w Gemini. Każda z tych platform pobiera dane z sieci w procesie retrieval i decyduje, co zacytować. SEO jest fundamentem tego, czy Twoja treść w ogóle trafi do puli kandydatów (retrieval).

I tu leży klucz: SEO nie polega na „byciu na pierwszej pozycji.” Polega na byciu w zbiorze kandydatów, z którego system wyszukiwania wybiera wyniki. Jeśli Twoja strona nie przechodzi przez etap retrieval, żadna optymalizacja on-page jej nie uratuje.

Przez SEO należy rozumieć także wszelkie praktyki promocyjne i contentowe takie jak programmatic SEO, parasite SEO, digital PR, czy tworzenie linkowalnych zasobów. W coraz większym stopniu mówi się także o social SEO, czyli wykorzystaniu mediów społecznościowych do zajmowania miejsca w wynikach wyszukiwania w Google.

On-page i off-page SEO

Tradycyjny podział SEO na dwie sfery nadal ma sens, choć granice się rozmywają.

On-page SEO (na stronie) obejmuje:

  • treści tekstowe i multimedia (artykuły, opisy produktów, wideo, podcasty),
  • architekturę informacji (menu, klastry tematyczne, linkowanie wewnętrzne, breadcrumby),
  • warstwę techniczną (crawlowanie, indeksacja, render, szybkość, Core Web Vitals, dane strukturalne JSON-LD),
  • UX i sygnały zaufania (czytelność, dostępność, transparentność autora, recenzje).

Off-page SEO (poza stroną) to:

  • linki z innych domen (sponsorowane artykuły, guest posting, PBN, niche edits, wygasłe domeny),
  • obecność marki w zewnętrznych źródłach wiedzy (Wikidata, WikiAlpha, branżowe katalogi, listy ekspertów),
  • sygnały brandowe (wyszukiwania marki, cytowania w mediach, wzmianki w social media),
  • parasite SEO (wykorzystywanie silnych domen do rankowania własnych treści),
  • entity stacking (budowanie spójnej obecności marki w wielu źródłach w celu wzmocnienia encji),
  • w coraz większym stopniu: obecność w odpowiedziach AI (cytowania w ChatGPT, Perplexity, AI Overviews).

Sprowadzanie SEO do samej „optymalizacji strony” to błąd, który widzę nadal u wielu klientów. SEO to zarówno to, co robisz na stronie, jak i to, jak Twoja marka istnieje w sieci poza nią. W dobie AI search ta druga warstwa nabiera szczególnego znaczenia, bo modele językowe budują swoją wiedzę o encjach (markach, osobach, firmach) właśnie na podstawie zewnętrznych źródeł.

Dane strukturalne – JSON-LD jako warstwa semantyczna

Schema markup (dane strukturalne w formacie JSON-LD) to element, który przez lata traktowano jako „techniczne nice-to-have” do wyświetlania rich snippets. Dzisiaj pełni znacznie ważniejszą rolę.

Dla systemów AI dane strukturalne to czytelna, niskokosztowa warstwa informacji. Model językowy może z JSON-LD natychmiast wyciągnąć: kto jest autorem, jakie ma kwalifikacje (Person schema z occupation, sameAs), o czym jest strona (Article, HowTo, FAQ), jakie encje się na niej pojawiają.

Kluczowe typy schema dla SEO w 2026:

  • Person i Organization z pełnymi sameAs (linki do profili potwierdzających encję),
  • Article ze wskazaniem autora i daty,
  • FAQ i HowTo jako struktury passage-ready,
  • Product, Review, AggregateRating w e-commerce,
  • BreadcrumbList dla klarownej hierarchii.

Prawidłowo zaimplementowane dane strukturalne obniżają koszt retrieval (system nie musi „domyślać się” o czym jest strona) i zwiększają szanse na pojawienie się w rich snippets, AI Overviews i odpowiedziach LLM.

Treści przyjazne do parsowania

Oprócz danych strukturalnych liczy się też fizyczna czytelność treści dla crawlerów. Tabele HTML (nie grafiki z tabelami), poprawnie zagnieżdżone listy, jasne nagłówki H2-H6, akapity o rozsądnej długości. To wszystko obniża koszt przetworzenia i zwiększa prawdopodobieństwo, że konkretny fragment (passage) zostanie wybrany jako odpowiedź w AI Overview lub featured snippet.

Widziałem strony z wartościową treścią, które przegrywały w AI Overviews ze stronami o gorszej merytorycznie treści, ale lepszej strukturze. Systemy retrieval preferują treści, które łatwo podzielić na pasaże i przypisać do konkretnego pytania.

SEO a SEM – różnice

SEM (Search Engine Marketing) to parasolowy termin obejmujący wszystkie działania marketingowe w wyszukiwarkach. SEO jest częścią SEM. Drugą częścią jest PPC (Pay Per Click), czyli reklamy płatne w Google Ads, Bing Ads i innych systemach.

W Polsce historycznie przyjęło się, że SEO = organic, SEM = płatne. To uproszczenie, ale jest tak zakorzenione, że nie ma sensu z nim walczyć. Warto natomiast wiedzieć, że na świecie SEM = SEO + PPC.

Praktyczne rozróżnienie:

  • SEO buduje widoczność organiczną w czasie. Efekty narastają, ale wymagają cierpliwości. Raz zbudowana widoczność generuje ruch bez kosztu za kliknięcie.
  • PPC daje natychmiastowy ruch, ale kończy się w momencie, gdy wyłączysz budżet.

Oba kanały się uzupełniają. Zauważam regularnie, że uruchomienie kampanii Google Ads zwiększa branded search, a to pośrednio wspiera SEO (bo Google traktuje wyszukiwania marki jako sygnał zaufania). Tylko nie mylmy korelacji z przyczynowością: kampania PPC nie poprawia pozycji organicznych bezpośrednio. Poprawia rozpoznawalność marki, co z kolei wpływa na zachowania użytkowników.

Jak naprawdę działa wyszukiwarka – retrieval, ranking, prezentacja

Większość artykułów o SEO opisuje wyszukiwarkę jako „algorytm, który ocenia strony i sortuje je od najlepszej do najgorszej.” To drastyczne uproszczenie.

Google (i każdy inny system wyszukiwania, włącznie z RAG pipeline w ChatGPT czy Perplexity) działa w trzech etapach:

1. Retrieval (pobieranie kandydatów). System przeszukuje indeks i pobiera zbiór stron, które mogą odpowiadać na dane zapytanie. To nie jest ranking. To preselekcja. Jeśli Twoja strona nie została pobrana na tym etapie, nie istniejesz dla tego zapytania. Nie ma znaczenia, jak dobra jest Twoja treść, jakie masz linki, jak szybko ładuje się strona. Retrieval to brama.

Kluczowe pojęcie to koszt retrieval (cost of retrieval). Systemy wyszukiwania, zarówno klasyczne jak i AI-oparte, mają ograniczone zasoby obliczeniowe. Im bardziej klarowna, ustrukturyzowana i jednoznaczna semantycznie jest Twoja treść, tym niższy koszt jej przetworzenia i pobrania przez system. Strony z chaotyczną strukturą, niejasnymi encjami i niejasnym dopasowaniem do zapytania mają wyższy koszt retrieval. System je pomija na rzecz treści, które łatwiej przetworzyć.

Dlatego semantyczne SEO, dane strukturalne i jasna architektura informacji nie są „bonusami.” Obniżają koszt retrieval i zwiększają prawdopodobieństwo, że Twoja strona w ogóle trafi do puli kandydatów.

2. Ranking (ocena i sortowanie). Pobrane strony trafiają do systemu rankingowego, który ocenia je pod kątem setek sygnałów: dopasowania semantycznego, autorytetu domeny, jakości treści, sygnałów behawioralnych (Navboost), freshness, E-E-A-T i wielu innych. To tutaj dzieje się to, co większość ludzi rozumie pod pojęciem „algorytm Google.”

3. Prezentacja (SERP layout). Google decyduje, jak wyświetlić wyniki: klasyczne „niebieskie linki”, AI Overview, featured snippet, knowledge panel, People Also Ask, mapy, wideo. Forma prezentacji ma bezpośredni wpływ na CTR i to, czy użytkownik w ogóle kliknie w Twoją stronę.

retrieval i ranking

Dlaczego to rozróżnienie jest ważne? Bo optymalizując SEO bez zrozumienia pipeline’u, łatwo zainwestować budżet w coś, co działa na niewłaściwym etapie. Widziałem projekty, które miały świetne treści i mocne linki, ale nie indeksowały się poprawnie (problem retrieval). I odwrotnie: strony, które były w indeksie, ale prowadziły tak kiepski UX, że Navboost je zestrzeliwał na etapie rankingu.

JS SEO i trudności dla systemów retrieval

Osobny problem stanowią strony oparte w dużej mierze na JavaScript. Googlebot potrafi renderować JS (choć z opóźnieniem i ograniczeniami), ale crawlery AI search engines i modele językowe mają z tym znacznie większe trudności.

Jeśli Twoja treść ładuje się dynamicznie przez React, Angular czy Vue bez server-side rendering (SSR), istnieje realne ryzyko, że:

  • Google zindeksuje stronę z opóźnieniem lub niepełną treścią,
  • crawlery Perplexity, ChatGPT Search czy Bing AI w ogóle jej nie przetworzą,
  • linki wewnętrzne załadowane przez JS nie zostaną odkryte podczas crawlowania.

Rozwiązanie to SSR lub przynajmniej prerenderowanie krytycznych zasobów (treść, linki wewnętrzne, nagłówki) w HTML, dostępnym bez obsługi JavaScript. To nie jest nowy problem, ale w dobie AI search stał się znacznie bardziej dotkliwy, bo stracisz nie tylko klasyczny ranking, ale też szansę na cytowanie w LLM-ach.

ZMOT, wyniki brandowe i rola social media w wyszukiwaniu

Google od dawna mówi o ZMOT (Zero Moment of Truth), czyli momencie, w którym potencjalny klient szuka informacji o marce, produkcie lub usłudze jeszcze przed dokonaniem zakupu. W praktyce ZMOT oznacza, że Twoja marka musi wyglądać dobrze w wynikach wyszukiwania na frazę brandową. Nie chodzi tylko o pozycję Twojej strony. Chodzi o to, co widzi użytkownik w całym SERP: wyniki z portali opiniotwórczych, profile social media, wzmianki w mediach, Knowledge Panel.

Wyniki brandowe to osobny obszar SEO, o którym mało kto pisze w kontekście „co to jest SEO”, a ma bezpośredni wpływ na konwersję. Jeśli ktoś szuka Twojej marki i widzi negatywne opinie na pierwszej stronie Google, nie kupi. Bez względu na to, jak dobrze pozycjonujesz się na frazy generyczne.

Social media w wynikach wyszukiwania

Rola social media w SEO zmienia się. Bezpośredni wpływ postów na Facebooku czy Instagramie na pozycje organiczne jest nadal znikomy. Ale pośredni wpływ rośnie.

Google coraz chętniej wyświetla wyniki z platform społecznościowych w SERP. Wyniki z Reddita, Quory, grup na Facebooku, a nawet TikToka pojawiają się na zapytania opiniotwórcze (typu „marka X opinie”). To de facto parasite SEO w wykonaniu samych platform. User-generated content z silnych domen społecznościowych rankuje na frazy, na które sam właściciel marki chciałby rankować.

To ma kilka implikacji:

  • Musisz monitorować, co o Twojej marce mówi się na forach i w grupach, bo te wyniki pojawiają się w SERP.
  • Warto aktywnie budować obecność w tych kanałach (szczególnie Reddit i YouTube), bo Google traktuje je jako źródła z dużym zaufaniem.
  • Social media napędzają branded search, a branded search jest sygnałem dla Navboost i wpływa na ranking pośrednio.

Dobra ekspozycja marki w social media (konsekwentna, spójna z pozycjonowaniem) buduje wyszukiwania brandowe, które wracają do Google jako sygnał zaufania. To nie jest bezpośredni czynnik rankingowy, ale pośredni wpływ jest mierzalny.

Navboost i dane behawioralne – jak UX wpływa na ranking

To jest jeden z tych tematów, które zmieniły moje rozumienie SEO, gdy wyciekły dokumenty wewnętrzne Google (tzw. Google Leak w 2024) i zostały potwierdzone materiałami z procesu DOJ.

Navboost to system, który analizuje interakcje użytkowników z wynikami wyszukiwania i wykorzystuje te dane do korygowania rankingów. Google mierzy, co ludzie klikają, jak długo zostają na stronie, czy wracają do wyników (pogo-sticking), jak głęboko scrollują, i wiele innych sygnałów.

Co to oznacza dla SEO w praktyce?

Jeśli Twoja strona rankuje na dane zapytanie, ale użytkownicy regularnie z niej uciekają i klikają w wynik konkurencji, Navboost to zauważy. Z czasem Twoja pozycja spadnie, a pozycja konkurenta wzrośnie. Żadna ilość linków tego nie skompensuje, bo to sygnał behawioralny, który Google traktuje jako bezpośredni feedback od użytkowników.

Dlatego UX i SEO to nie są dwa oddzielne światy. Od 2015 roku mówię o integracji SEO z UX (zanim to było modne, hah). Ale teraz mamy twarde potwierdzenie z wewnętrznych dokumentów Google, że ta integracja to nie „nice to have”, tylko warunek konieczny. Dlatego stworzyłem BUXS Framework, który łączy Brand, UX i Semantykę (Semantics) w jedną spójną strategię organiczną. Bo optymalizacja bez uwzględnienia marki i doświadczenia użytkownika to optymalizacja połowiczna.

Co konkretnie mierzy Navboost? Na podstawie dostępnych informacji:

  • CTR z wyników wyszukiwania (Click-Through Rate),
  • czas spędzony na stronie po kliknięciu (dwell time),
  • powroty do SERP po krótkim pobycie na stronie,
  • kliknięcia w kolejne wyniki po odrzuceniu pierwszego,
  • wyszukiwania brandowe w kontekście danego zapytania,
  • głębokość interakcji (scrollowanie, kliknięcia w elementy).

EffortScore i OriginalContentScore

Google Leak ujawnił też istnienie sygnałów takich jak EffortScore (ocena wysiłku włożonego w stronę) i OriginalContentScore (ocena oryginalności treści). Nie znamy dokładnego mechanizmu, ale ich istnienie potwierdza, że Google potrafi odróżnić treść generowaną masowo od treści, w którą ktoś faktycznie włożył pracę.

To ma bezpośrednie przełożenie na strategię: strona z unikalną analizą, własnymi danymi, case studies i komentarzem eksperckim będzie miała wyższy EffortScore niż strona z przetworzonym contentem z ChatGPT. Nawet jeśli obie strony pokrywają ten sam temat.

SiteFocusScore i fokus tematyczny

Kolejny istotny sygnał z Google Leak to SiteFocusScore, czyli ocena, na ile strona jest skoncentrowana tematycznie. Duże serwisy z rozbudowaną, wielotematyczną strukturą (portale o wszystkim, agregatory treści bez jasnej specjalizacji) cierpiały wyraźnie podczas aktualizacji algorytmu w 2024 i 2025 roku.

Google premiuje strony, które konsekwentnie budują ekspertyzę w jednej, jasno zdefiniowanej dziedzinie. To bezpośrednio łączy się z koncepcją topical authority: nie wystarczy napisać 10 artykułów na 10 różnych tematów. Trzeba zbudować głębokie pokrycie jednego tematu, z jasną hierarchią i spójną architekturą informacji.

Wniosek: pisanie o wszystkim przestaje być skuteczną strategią. Im bardziej sfokusowany tematycznie jest Twój serwis, tym lepiej. To jeden z powodów, dla których niszowe strony z mniejszą ilością treści potrafią pokonać duże portale z tysiącami stron.

AI Overviews, zero-click i problem atrybucji

Kiedyś Google wyświetlało 10 niebieskich linków. Potem doszły featured snippets, knowledge panels, People Also Ask. A teraz mamy AI Overviews (Przeglądy AI) i AI Mode.

AI Overviews to odpowiedzi generowane przez Google na podstawie treści z wielu źródeł, wyświetlane na górze wyników wyszukiwania. Użytkownik dostaje odpowiedź bez konieczności kliknięcia w jakikolwiek link. I to jest problem, ale nie taki, jaki opisuje większość branżowych artykułów.

Prawdziwy problem AI Overviews to nie spadek ruchu. To zmiana atrybucji.

Wyobraź sobie taki scenariusz: ktoś szuka „najlepszy konsultant SEO dla SaaS.” Google wyświetla AI Overview, w którym cytuje Twoją stronę. Użytkownik czyta odpowiedź, zapamiętuje Twoją markę, ale nie klika. Tydzień później wpisuje Twoją markę w Google i dzwoni. W Google Analytics ten lead nie istnieje jako organic. To direct lub branded search. Atrybucja się rozjechała.

To zjawisko, które nazywam „kliknięciami w głowach, a nie w przeglądarkach” (clicks in minds, not in browsers). Zero-click search nie oznacza, że SEO nie działa. Oznacza, że coraz trudniej zmierzyć, jak dobrze działa. A kiedy nie możesz zmierzyć, trudno uzasadnić budżet.

Sound familiar? Każdy CMO, który walczył o budżet SEO na spotkaniu zarządu, to zna.

Dane z marca 2026 (analiza 1,3 miliona cytowań w AI Mode) pokazują, że Google staje się swoim własnym głównym źródłem. Udział google.com jako źródła cytowań w AI Mode wzrósł z 5,7% do ponad 17,4% w ciągu dziewięciu miesięcy. To centralizacja ruchu, z którą trzeba się liczyć.

Co z tym robić? Trzy rzeczy:

  1. Monitoruj AI visibility niezależnie od klasycznych metryk SEO. Narzędzia jak Seostation zaczynają oferować monitoring obecności w AI Overviews. Korzystaj z nich.
  2. Buduj markę jako encję, nie tylko pozycje w SERP. Jeśli Twoja marka jest rozpoznawalna i cytowana, generujesz branded search, który jest znacznie odporniejszy na zmiany w SERP layout.
  3. Przestań liczyć sukces SEO wyłącznie w kliknięciach. Impresje w AI Overviews, cytowania w ChatGPT, branded search volume, share of search to metryki, które oddają wartość SEO pełniej niż sam ruch organiczny.

AI Visibility – GEO, AEO i optymalizacja pod modele językowe

W branży pojawiło się kilka akronimów, które warto uporządkować:

  • GEO (Generative Engine Optimization) – optymalizacja pod wyszukiwarki generatywne (AI Overviews, AI Mode, Perplexity).
  • AEO (Answer Engine Optimization) – optymalizacja pod systemy odpowiadające na pytania.
  • LLMO (Large Language Model Optimization) – optymalizacja pod modele językowe (ChatGPT, Claude, Gemini).

To nie są trzy oddzielne dyscypliny. To warstwy tego samego ekosystemu. Wszystkie opierają się na architekturze RAG: model językowy pobiera treść z sieci (retrieval), a potem generuje odpowiedź na jej podstawie. Jeśli Twoja treść nie przejdzie etapu retrieval, nie zostanie zacytowana.

ekosystem seo

Jak AI search korzysta z SEO (grounding i fan-outy)

Praktyczny przykład: ChatGPT Search, Google AI Mode i Perplexity wykonują w tle zapytania do wyszukiwarek (w tym Google) i na podstawie pobranych wyników budują odpowiedzi. To się nazywa grounding. Modele językowe „uziemiają” swoje odpowiedzi w realnych danych z sieci, żeby zmniejszyć halucynacje.

Widać to wyraźnie w e-commerce. ChatGPT z groundingiem w organic Google Shopping potrafi rekomendować produkty, porównywać ceny i linkować do sklepów. Fan-outy (rozgałęzienia zapytań) działają tak: użytkownik pyta „jaki laptop do pracy kreatywnej”, a model generuje fan-out zapytań do Google: „najlepsze laptopy dla grafików 2026″, „MacBook Pro vs Dell XPS”, „laptop 16 cali OLED cena” i łączy wyniki w jedną odpowiedź. Jeśli Twoja strona rankuje na te fan-outowe zapytania w Google, zostanie zacytowana przez AI.

Dlatego klasyczne SEO jest fundamentem AI visibility. Bez pozycji w Google nie ma cytowań w AI Mode. Bez cytowań w AI Mode nie ma widoczności w nowym ekosystemie.

Universal Commerce Protocol i agentic commerce

Oddzielnym, dopiero kształtującym się trendem jest Universal Commerce Protocol (UCP) i szerzej: agentic commerce. Google testuje natywne checkouty w AI Mode, gdzie użytkownik może kupić produkt bez opuszczania wyszukiwarki. Agenci AI (w Gemini, ChatGPT i innych) coraz częściej podejmują decyzje zakupowe w imieniu użytkowników.

Co to oznacza dla SEO? Jeśli Twój sklep nie jest rozpoznawalny jako encja, nie ma poprawnych danych strukturalnych (Product schema, ceny, dostępność) i nie jest obecny w Google Merchant Center, agenci AI go pominą. UCP i podobne standardy to infrastruktura, która umożliwia maszynom dokonywanie transakcji. Agentic SEO to termin, który dopiero się kształtuje, ale w praktyce oznacza: zrób tak, aby agent AI mógł Cię znaleźć, zrozumieć Twoją ofertę i dokonać transakcji bez ludzkiej interwencji.

To jeszcze wczesny etap. Ale firmy e-commerce, które zaczną się do tego przygotowywać teraz, będą miały przewagę za rok czy dwa.

llms.txt – niepotwierdzona, ale warta uwagi

Pojawił się pomysł pliku llms.txt (analogicznie do robots.txt), który miałby informować crawlery AI o tym, jak traktować treści strony. Niektóre serwisy zaczęły go wdrażać. Na dziś nie ma potwierdzenia, że którykolwiek LLM faktycznie go honoruje w procesie retrieval. Ale sam fakt, że społeczność o tym dyskutuje, pokazuje kierunek: pojawia się warstwa komunikacji między stronami a systemami AI, której jeszcze 2 lata temu nie było.

Moim zdaniem warto śledzić temat, ale nie inwestować w to dużych zasobów, dopóki nie będzie jasne, że llms.txt wpływa na retrieval. Na razie lepsza inwestycja to porządne dane strukturalne, klarowna encja i content z information gain.

Co w praktyce pomaga w AI visibility?

Klarowność semantyczna. AI retrieval premiuje treści z jasną strukturą: definicja → kontekst → przykład → implikacja. Strona, która jest ścianą tekstu bez nagłówków, list i jasnych twierdzeń, ma wyższy koszt retrieval. System wybierze coś prostszego.

Dane strukturalne (JSON-LD). Opisane wyżej. Dla systemów AI to czytelna warstwa danych, z której mogą wyciągnąć konkretne fakty.

Zewnętrzne źródła prawdy i entity stacking. Modele językowe budują wiedzę o encjach na podstawie zewnętrznych potwierdzeń: Wikidata, Wikipedia, WikiAlpha, Grokipedia, branżowe listy, cytowania w mediach. Jeśli Google (i GPT) mogą potwierdzić, że Twoja marka istnieje i jest powiązana z danym tematem na podstawie wielu niezależnych źródeł, rośnie prawdopodobieństwo cytowania. To jest właśnie entity stacking: budowanie warstw potwierdzenia encji w różnych miejscach w sieci.

Encyjne kotwiczenie treści. Każda kluczowa strona powinna w pierwszych 100 słowach jasno powiązać główną encję (markę, osobę, framework) z tematem strony i z innymi encjami potwierdzającymi kontekst.

GEO i AEO to nie zamienniki klasycznego SEO. To rozszerzenie ekosystemu. Moja perspektywa (i mówię to na każdej konferencji, na której wypadam) jest taka, że SEO to fundament, a AI visibility to warstwa, która na tym fundamencie stoi. Bez solidnego SEO nie ma czego optymalizować pod AI.

Semantic SEO jako fundament AI visibility

Semantyczne SEO to sposób optymalizacji oparty na znaczeniu, relacjach między pojęciami i strukturze wiedzy, a nie na dopasowaniu ciągów znaków. I to semantyczne SEO jest kluczem do AI visibility.

Dlaczego? Bo systemy AI (zarówno Google AI Overviews, jak i RAG pipeline w ChatGPT czy Perplexity) potrzebują treści, które mogą łatwo rozbić na fragmenty (passages, data chunks) i przypisać do konkretnych pytań. Treść zbudowana semantycznie, z jasnym kontekstem encyjnym, co-occurrence kluczowych pojęć i passage-ready strukturą, ma niski koszt retrieval i wysokie prawdopodobieństwo cytowania.

W praktyce AI visibility buduje się przez:

Wzmianki i co-occurrence. Spójne współwystępowanie Twojej marki z kluczowymi pojęciami (w treściach na stronie i poza nią) uczy systemy retrieval, że Twoja encja jest powiązana z danym tematem. Jeśli „Szymon Słowik” regularnie współwystępuje z „strategic SEO consulting” i „BUXS Framework” w wielu źródłach, model językowy traktuje to jako ustaloną relację.

Pisanie pod Knowledge Graph. Google Knowledge Graph to baza wiedzy o encjach i relacjach między nimi. Treści, które jawnie definiują encje, nazywają relacje (trójki semantyczne: podmiot, predykat, obiekt) i są spójne z danymi w KG, mają przewagę w retrieval. Pisałem o tym szerzej w artykule o encjach w SEO.

Passage indexing i data chunks. Google indeksuje nie tylko całe strony, ale też poszczególne pasaże (fragmenty tekstu). Systemy AI robią to samo: wyciągają z długiego artykułu konkretny fragment, który odpowiada na pytanie. Jeśli Twoja treść ma jasne, samodzielne pasaże (każdy z własnym twierdzeniem, kontekstem i encją), zwiększasz szansę na passage-level retrieval.

Entity salience. Nie chodzi o to, ile razy wspomnisz daną encję, ale jak centralną rolę odgrywa ona w treści. Wysoka entity salience oznacza, że system rozumie, o czym jest Twoja strona, a nie tylko że „przypadkiem wspomina” dany temat.

Query augmentation. Google i systemy AI transformują zapytania użytkowników, dodając kontekst, encje i warianty. Twoja treść musi odpowiadać nie tylko na dosłowne zapytanie, ale też na jego rozszerzone warianty (fan-outy). Dlatego planowanie treści wokół sieci zapytań (query network) jest skuteczniejsze niż targetowanie pojedynczych fraz.

EEAT i marka jako encja

E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness) to framework Google do oceny jakości treści. Większość branżowych artykułów opisuje go jako checklistę: „dodaj bio autora, zdobądź cytowania, pokaż doświadczenie.”

Ale EEAT to nie checklista. To naturalny efekt posiadania klarownej marki.

Kiedy Google ocenia E-E-A-T Twojej strony, nie szuka checkboxa „czy jest bio autora.” Sprawdza, czy encja stojąca za treścią (osoba, firma, marka) jest rozpoznawalna, jednoznaczna i powiązana z tematem na podstawie wielu sygnałów:

  • Person/Organization schema z sameAs do potwierdzonych profili,
  • cytowania w zewnętrznych źródłach (publikacje, listy ekspertów, media),
  • koherentna obecność w Knowledge Graph,
  • wyszukiwania brandowe (branded search), które Google traktuje jako sygnał zaufania,
  • spójność informacji o encji w różnych miejscach w sieci.
Marka jako encja, EEAT

Entity stacking i ujednoznacznienie marki

Entity stacking to systematyczne budowanie obecności marki w wielu wiarygodnych źródłach: Wikidata, WikiAlpha, branżowe katalogi, profile na platformach (LinkedIn, Crunchbase, Clutch), wpisy w encyklopediach wiki, cytowania w mediach branżowych. Każde takie potwierdzenie to warstwa, która wzmacnia encję w oczach systemów retrieval.

Znam ten temat z autopsji. Moje własne imię i nazwisko (Szymon Słowik) konkuruje w Knowledge Graph z co najmniej czterema innymi encjami, w tym z polskim żołnierzem, który zginął w Afganistanie i ma artykuł w Wikipedii. Walka o ujednoznacznienie encji to realna praca SEO, którą wykonuję na co dzień. Person schema z linkami sameAs do 27+ profili, About page jako hub encji, koherentne kotwiczenie na każdej kluczowej stronie. To nie jest teoria. To operacyjna konieczność.

I tu jest information gain, którego żaden konkurencyjny artykuł o „SEO co to jest” w polskim SERP nie pokrywa: EEAT nie buduje się od treści w górę. Buduje się od marki jako encji. Najpierw masz klarowną encję. Potem encja produkuje treści. Treści dziedziczą autorytet encji. A nie odwrotnie.

Strategia marki, spójność w sieci i freshness

EEAT to nie tylko kwestia techniczna (schema, sameAs, KG). To kwestia strategii marki. Spójność komunikacji, pozycjonowania i wartości we wszystkich punktach styku w sieci (strona, social media, publikacje branżowe, wystąpienia, profile) buduje to, co Google i LLM-y interpretują jako wiarygodność.

Jeśli na stronie pozycjonujesz się jako „strategiczny konsultant SEO”, a na LinkedIn piszesz o gotowaniu, a w mediach mówisz o kryptowalutach, Twoja encja jest rozmyta. Systemy retrieval mają trudność z przypisaniem Ci jednego tematu. SiteFocusScore spada (na poziomie domeny) i ujednoznacznienie encji się komplikuje (na poziomie osoby/marki).

Spójność to nie marketing. To sygnał dla algorytmów.

Powiązany sygnał to freshness. Google mierzy świeżość treści (freshness score) i premiuje strony, które są regularnie aktualizowane, szczególnie w tematach, które się zmieniają (np. SEO, technologia, prawo). Stary artykuł z 2019 roku, który nigdy nie był aktualizowany, traci na freshness score. Regularny content pruning i aktualizacja kluczowych treści to nie tylko kwestia jakości, ale też sygnał dla Google, że ktoś aktywnie dba o serwis.

Mapy tematyczne i planowanie treści

Mapa tematyczna (topical map) to strategiczne narzędzie do planowania treści na stronie. Zamiast pisać losowe artykuły „pod frazy”, projektujesz strukturę: jakie tematy pokrywasz, jak się ze sobą łączą, jakie pełnią role (pillar, hub, spoke) i jak prowadzą użytkownika od edukacji do konwersji.

W moim podejściu (BUXS Framework) mapa tematyczna powstaje na podstawie dekompozycji encji na atrybuty i wartości (Entity-Attribute-Value), a potem rozbudowy o fan-outy (dodatkowe warianty zapytań dla każdego tematu: warianty przyczynowe, proceduralne, porównawcze, dla konkretnych branż).

Dlaczego mapa tematyczna jest ważna? Bo Google ocenia topical authority na poziomie domeny, nie pojedynczej strony. Jeśli masz 50 artykułów o SEO, powiązanych ze sobą logicznie, z jasną hierarchią i linkowanie wewnętrznym, Google traktuje Cię jako autorytet w temacie SEO. Jeśli masz 5 artykułów o SEO, 5 o gotowaniu i 5 o motoryzacji, nie jesteś autorytetem w żadnym z tych tematów.

Planowanie treści pod core target

Planując treści, nie wystarczy myśleć „o czym napisać.” Trzeba myśleć „dla kogo.” Każdy artykuł powinien mieć jasno zdefiniowaną grupę docelową, konkretnego odbiorcę, do którego uderzamy. Treść dla CMO, który musi uzasadnić budżet na zarządzie, wygląda inaczej niż treść dla technicznego specjalisty SEO. Nawet jeśli oba artykuły pokrywają to samo słowo kluczowe.

W BUXS Framework definiuję persony na etapie strategic brief. Każdy node w mapie tematycznej ma przypisaną personę i etap lejka (TOFU/MOFU/BOFU). Dzięki temu treść trafia do właściwego odbiorcy z właściwym przekazem.

Framework BUXS - marka, ux, semantyka

Content pruning i dług contentowy

Wiele serwisów, szczególnie tych z rozbudowanym blogiem lub bazą wiedzy, ma dzisiaj poważny problem: dług contentowy. Przez lata publikowały treści „pod SEO” bez strategii, bez mapy tematycznej, bez rewizji. W efekcie mają setki lub tysiące podstron, z których większość nie generuje ruchu, nie rankuje, nie jest indeksowana, a w najgorszym przypadku aktywnie szkodzi całemu serwisowi.

Dlaczego szkodzi? Bo Google ocenia jakość na poziomie domeny, nie tylko pojedynczej strony. SiteFocusScore, pageQuality, sygnały HCU (Helpful Content System) działają site-wide. Jeśli 60% Twoich stron to thin content, przestarzałe albo płytkie artykuły lub kanibalizujące się podstrony, ten odsetek działa jako negatywny mnożnik na kondycję całego serwisu. Mówiąc wprost: słabe strony ciągną w dół dobre strony.

Content pruning to proces systematycznego usuwania, łączenia lub aktualizacji treści, które nie spełniają standardów jakościowych. Pisałem o tym więcej w artykule o content pruningu i długu contentowym i rozbudowanym audycie contentowym.

Co daje content pruning w praktyce?

  • Poprawa metryk site-wide (SiteFocusScore, EffortScore, OriginalContentScore),
  • lepsze wykorzystanie crawl budget (Google przestaje marnować zasoby na strony bez wartości),
  • wzrost topical authority (treść skupiona wokół kluczowych tematów zamiast rozproszonej),
  • poprawa CTR i UX (eliminacja śmieciowych wyników z branded SERP),
  • szybsze odzyskiwanie widoczności po Helpful Content Updates.
content pruning

Crawl rate, crawl demand i indeksacja

Powiązany temat to crawl budget i crawl rate. Google ma ograniczone zasoby na crawlowanie Twojej strony. Crawl rate to jak szybko Googlebot może crawlować bez obciążania serwera. Crawl demand to ile stron Google chce crawlować (bo uważa je za wartościowe).

Jeśli masz tysiące stron niskiej jakości, Google marnuje crawl demand na treści, które i tak nie zostaną zindeksowane lub nie przyniosą wartości. Po content pruningu Google może przekierować crawl demand na strony, które faktycznie mają potencjał. Widziałem serwisy, w których samo usunięcie 30-40% najsłabszych stron powodowało, że pozostałe strony zaczynały indeksować się szybciej i zyskiwały na widoczności.

To nie jest magia. To matematyka: ograniczone zasoby crawlera lepiej wykorzystane na mniejszą liczbę lepszych stron.

Information gain – warunek konieczny

Information gain to pojęcie, które w SEO oznacza: czy Twoja treść dodaje coś nowego do tego, co już jest w wynikach wyszukiwania. Strona, która powtarza to samo co 10 innych stron w SERP, nie ma information gain. Google nie potrzebuje jedenastej kopii tego samego artykułu.

Co stanowi information gain?

  • Własne dane i analizy (np. mój dataset $708K z link buildingu prezentowany na BrightonSEO),
  • case studies z realnych projektów (nie „hipotetyczne przykłady”),
  • perspektywa praktyka, którą ma ktoś, kto faktycznie wykonuje tę pracę,
  • kontraintuicyjne wnioski, które przeczą powszechnej opinii branżowej,
  • powiązania między tematami, których konkurenci nie dostrzegają (np. Porter i SEO, BCG matrix i klastry contentowe),
  • świeższy kontekst (nowsze dane, aktualizacje algorytmu, nowe narzędzia).

Bez information gain nie zbudujesz stabilnych pozycji. Google coraz lepiej to ocenia i premiuje strony, które faktycznie wnoszą coś nowego.

Treści AI – co wolno, a czego nie

Można tworzyć treści z pomocą AI. Google Helpful Content System na to pozwala. Kluczowe jest nie to, kto (lub co) napisało treść, tylko czy jest wartościowa dla użytkownika.

Ale „wartościowa” to nie tylko „poprawna merytorycznie.” W praktyce treść AI musi spełniać kilka warunków, żeby rankować stabilnie:

Information gain. Treść wygenerowana przez AI, która powtarza to samo co inne strony w SERP, będzie traktowana jako commodity content. Musisz dodać unikalną wartość: własne dane, komentarz ekspercki, case study, perspektywę praktyka.

Sygnały behawioralne (Navboost). Jeśli użytkownicy odrzucają Twoją treść (szybko wracają do wyników, krótki dwell time), Navboost to zarejestruje. Treść AI, która jest generyczna i nie angażuje, generuje słabe sygnały behawioralne i z czasem spada.

EffortScore i OriginalContentScore. Google potrafi ocenić wysiłek i oryginalność. Masowo generowany content z minimalną redakcją będzie miał niskie oba wskaźniki.

Czytelność i UX. Treść nie może odpychać użytkownika. Czytelne formatowanie, jasna struktura, tabele HTML, listy, nagłówki: to nie są „bonusy”, tylko warunek, żeby użytkownik w ogóle przeczytał treść zamiast ją zamknąć.

Transparentny podmiot. Za stroną musi stać rozpoznawalny podmiot z jasnym EEAT. Anonimowa strona z AI contentem bez autora, bez about page, bez danych strukturalnych to przepis na filtr jakościowy.

Narzędzia do wykrywania AI (Originality.ai, GPTZero i inne) będą flagować treść AI lub współtworzoną z AI jako „częściowo wygenerowaną.” Nie przejmuj się tym. Google oficjalnie mówi, że nie karze za samo użycie AI do tworzenia treści. Karze za treści niskiej jakości, niezależnie od tego, kto je napisał. Helpful Content System ocenia wartość dla użytkownika, nie narzędzie produkcji.

Scaled content abuse – czego unikać

Co Google karze to scaled content abuse, czyli masowe tworzenie treści niskiej jakości w celu manipulowania wynikami. Witryny, które generowały setki artykułów AI bez redakcji, bez information gain, bez jasnego podmiotu, traciły widoczność w kolejnych aktualizacjach.

Widziałem serwisy, które wygenerowały 500 artykułów w miesiąc i przez chwilę rosły w widoczności, żeby potem spaść do zera po Helpful Content Update. Ilość bez jakości to nie strategia. To zakład, który przegrasz.

Link building w 2026

Linki pozostają jednym z najsilniejszych sygnałów autorytetu w Google. To się nie zmieniło, pomimo wielu prognoz, że „linki przestaną mieć znaczenie.” Na BrightonSEO w 2024 prezentowałem dane z datasetu o wartości $708K w linkach. Wnioski? Linki działają, ale ich jakość i kontekst mają znaczenie, a nie sama ilość.

W praktyce najskuteczniejsze metody pozyskiwania linków w Polsce to:

Artykuły sponsorowane. Nadal dominująca taktyka. Platformy takie jak Linkhouse, WhitePress i inne pozwalają na kontrolowane pozyskiwanie linków ze stron o realnym ruchu i odpowiedniej tematyce. Kontrola nad zmiennymi (anchor text, strona docelowa, jakość domeny) to fundament skutecznego link buildingu.

Wygasłe domeny (expired domains). Domeny z historią, autorytetem linkowym i czystym profilem, które można kupić po wygaśnięciu rejestracji i wykorzystać do budowy zaplecza lub jako fundament nowego projektu. Dobra wygasła domena to natychmiastowy autorytet linkowy, pod warunkiem że historia domeny jest spójna z nowym projektem i profil linków jest czysty.

PBN (Private Blog Networks). Temat kontrowersyjny, ale bądźmy szczerzy: w polskim SEO PBN-y nadal istnieją i w wielu niszach działają. Kluczowe jest zarządzanie ryzykiem, jakość infrastruktury, domeny z realnymi metrykami i treść, która nie wygląda jak zaplecze. Ale PBN mają jeszcze jedną rolę, o której mało kto mówi publicznie.

PBN i kształtowanie konsensusu w LLM-ach

Modele językowe budują swoją wiedzę o świecie na podstawie treści w sieci. Jeśli w wielu źródłach pojawia się spójna informacja o Twojej marce, produkcie czy ekspertyzie, model traktuje to jako konsensus. PBN i kontrolowana sieć publikacji mogą (przy odpowiednim wykonaniu) kształtować to, jak LLM postrzega Twoją encję.

To nie jest manipulacja w klasycznym sensie. To budowanie warstwy potwierdzeń, które systemy AI traktują jako wiarygodne. Entity stacking, o którym pisałem wyżej, działa na tej samej zasadzie: im więcej spójnych, niezależnych potwierdzeń, tym silniejsza encja w oczach zarówno Google, jak i modeli językowych.

Guest blogging i outreach. Nie mylić z kupowaniem wzmianek u influencerów. Mówię o budowaniu relacji branżowych, które przekładają się na naturalne wzmianki i linki. W B2B to często najlepsza taktyka.

Fundamentalne linki (directories, profiles, submissions). Często pomijane, ale ważne jako podstawa profilu linków i sygnał istnienia encji w sieci.

Parasite SEO. Wykorzystywanie silnych domen (portali informacyjnych, platform UGC, LinkedIn Pulse, Medium) do rankowania własnych treści. Google ogranicza tę taktykę (site reputation abuse policy), ale nadal jest skuteczna w wielu wariantach.

Co się zmieniło? Offsite w dobie AI to coś więcej niż same linki. Obecność marki w zewnętrznych źródłach wiedzy wpływa na to, jak modele językowe postrzegają Twoją encję. Każda wiarygodna wzmianka o marce w sieci to sygnał dla systemów retrieval, zarówno klasycznych, jak i AI-opartych.

Do szerokiego wachlarza działań offsite dochodzą też techniki takie jak cloud stacking, entity stacking, a nawet indeksowanie wyników rozmów z LLM-ami. To pragmatyka: whatever works, z zachowaniem kontroli nad ryzykiem.

Czy SEO umiera? Obalenie mitu

Co kwartał widzę artykuły i posty na LinkedIn: „SEO is dead.” Zwykle napisane przez osoby, które albo nigdy nie robiły SEO operacyjnie, albo sprzedają coś innego.

SEO nie umiera. Ewoluuje. I to jest normalne, bo wyszukiwanie ewoluuje.

Kilka faktów:

Google nadal przetwarza miliardy zapytań dziennie. Nawet jeśli część odpowiedzi jest generowana przez AI Overviews, źródłem tych odpowiedzi są strony internetowe. Twoje strony. Jeśli są dobrze zoptymalizowane.

Ruch organiczny nadal konwertuje lepiej niż większość płatnych kanałów, bo trafia do osób, które aktywnie szukają rozwiązania. To nie przerywa ich scrollowania w social media. To odpowiada na ich pytanie.

AI nie zastępuje SEO. AI rozszerza ekosystem. Do klasycznego wyszukiwania dochodzą AI Overviews, ChatGPT Search, Perplexity, Gemini, agentic commerce. Każdy z tych kanałów pobiera treść z sieci. Każdy potrzebuje zoptymalizowanych stron jako źródła. SEO jest fundamentem, na którym stoi cała widoczność organiczna, niezależnie od kanału.

To, co się naprawdę zmienia, to nie „czy SEO działa.” Zmienia się „jak mierzymy, że działa.” Atrybucja, budżetowanie i raportowanie ROI z SEO stają się trudniejsze, bo ścieżka użytkownika jest bardziej rozproszona. Ale to problem pomiarowy, nie problem skuteczności.

Największe zagrożenie ze strony AI dla SEO to nie zastąpienie. To attribution gap, luka atrybucyjna: użytkownik widzi Twoją markę w AI Overview, zapamiętuje ją, ale konwertuje tydzień później przez direct. W Google Analytics to wygląda, jakby SEO nie miało z tym nic wspólnego. I w tym momencie CFO pyta „po co nam ten budżet na pozycjonowanie?”

Rozwiązanie? Mierz SEO szerzej: branded search volume, share of search, AI visibility, cytowania w LLM-ach. Nie tylko organic sessions.

Narzędzia SEO

Narzędzia to infrastruktura, ale nie zastąpią myślenia strategicznego. Widziałem projekty z dostępem do Ahrefs, Semrush i Surfera jednocześnie, które nie miały strategii. Dane bez interpretacji to szum.

Najważniejsze narzędzia, których faktycznie używam na co dzień:

  • Google Search Console – dane o indeksacji, kliknięciach, pozycjach. Podstawa, bez której nie da się robić SEO.
  • Ahrefs – profil linków, analiza konkurencji, keyword research, content explorer. Mój główny kombajn.
  • Sitebulb – audyty techniczne, analiza crawlowania, renderowania.
  • Surfer – analiza korelacji on-page, planowanie treści, porównanie z konkurencją.
  • Senuto – analiza widoczności domen, monitoring słów kluczowych (szczególnie na rynku polskim).
  • Google Analytics 4 – analiza ruchu i konwersji, choć w dobie AI attribution jest coraz mniej precyzyjny.
  • Narzędzia AI – Claude, ChatGPT do analizy danych, generowania content planów, klastrowania fraz, analizy embeddings.

Do monitoringu AI visibility coraz ważniejsze stają się narzędzia takie jak Seostation (monitoring obecności w AI Overviews) i dedykowane dashboardy do śledzenia cytowań w LLM-ach.

AI, vibe coding i data science w SEO

Modele językowe zmieniły sposób pracy z SEO na kilku poziomach. Potrafiąc przetworzyć treści na wektory (embeddings), możemy liczyć podobieństwo między stronami, wykrywać kanibalizację, grupować frazy w klastry i projektować linkowanie wewnętrzne w sposób, który jeszcze kilka lat temu wymagałby tygodni ręcznej pracy.

Osobny trend to vibe coding: tworzenie prototypów, narzędzi i automatyzacji z pomocą AI. Proste kalkulatory SEO, narzędzia do analizy danych z GSC, generatory topical map można budować znacznie szybciej, co zmienia sposób pracy konsultantów i agencji. Ja sam korzystam z vibe codingu do budowy komponentów mojego pipeline’u contentowego (system content briefów w TypeScript, automatyzacja analiz).

Ale najważniejsze zastosowanie AI w SEO to nie generowanie treści ani prototypowanie narzędzi. To analityka i strategia: predykcja trendów na danych z Search Console, analiza content gap na skalę, której człowiek nie przetworzy ręcznie, i automatyzacja diagnostyki technicznej.

W mojej praktyce AI wspiera procesy, ale nie zastępuje decyzji. Topical map, priorytetyzacja klastrów, alokacja budżetu linkowego to decyzje strategiczne, które wymagają rozumienia biznesu klienta. Tego żaden model nie zrobi za Ciebie.

SEO w ujęciu strategicznym – kapitał, nie koszt

Z perspektywy biznesowej SEO to nie koszt operacyjny. To alokacja kapitału.

Kiedy inwestujesz w treści, architekturę informacji i linki, budujesz aktywo, które generuje ruch bez kosztów per-click. W odróżnieniu od Google Ads, gdzie ruch kończy się w momencie wyłączenia budżetu, dobrze zbudowana widoczność organiczna pracuje latami.

Ale jak każda inwestycja, SEO wymaga myślenia portfelowego. Nie wszystkie klastry tematyczne dadzą ten sam zwrot. Nie wszystkie frazy warto atakować. Nie każdy link jest wart swojej ceny.

W moim podejściu (BUXS Framework, łączący Brand, UX i Semantykę) decyzje SEO są ramowane jako problemy alokacji kapitału: gdzie zainwestować ograniczone zasoby (czas, budżet, ludzi), żeby zmaksymalizować zwrot w określonym horyzoncie czasowym? To wymaga nazwania założeń, nazwania trade-offów i zdefiniowania KPI, a nie powiedzenia „to zależy” bez struktury.

BUXS integruje trzy perspektywy, które tradycyjne SEO traktuje oddzielnie:

  • Brand – marka jako encja, EEAT, entity stacking, ujednoznacznienie,
  • UX – sygnały behawioralne, Navboost, konwersja, vibe coding do prototypowania interfejsów,
  • Semantics – topical authority, SRO (Semantic Relevance Optimization), mapy tematyczne, dane strukturalne.

Pozycjonowanie to proces ciągły. Wyniki wyszukiwania dla każdej frazy to gra o sumie zerowej: jeśli ktoś wchodzi do top 10, ktoś inny z niego wypada. Dlatego nawet gdy strona osiągnęła satysfakcjonujące pozycje, trzeba inwestować dalej, bo konkurencja nie śpi.

Audyt SEO

Audyt SEO to diagnostyka, od której zaczynam każdy projekt. Obejmuje cztery warstwy:

  1. Techniczną – crawlowanie, indeksacja, render, szybkość, Core Web Vitals, dane strukturalne, obsługa mobilna, JS SEO.
  2. Contentową – pokrycie tematyczne, jakość treści, dopasowanie do intencji, kanibalizacja, thin content, information gain.
  3. Linkową – profil linków, jakość domen linkujących, anchor text distribution, link velocity.
  4. Strategiczną – analiza konkurencji, pozycja brandowa, widoczność w AI, EEAT assessment, SiteFocusScore.

Współczesny audyt SEO to nie tylko „sprawdź, czy title tags się nie duplikują.” To ocena, jak strona radzi sobie w całym ekosystemie wyszukiwania, włącznie z AI Overviews i widocznością encji w modelach językowych.

Więcej o moim procesie audytowym: audyt SEO.

Checklista SEO

Poniżej skrócona checklista najważniejszych obszarów do sprawdzenia. Pełną wersję w arkuszu pobierzesz tutaj: Checklista SEO – Google Sheets.

ObszarCo sprawdzićNa co zwrócić uwagę
Technical SEOIndeksacja, canonical, sitemap, robots.txtCzy Google indeksuje to, co chcesz? Czy nie marnujesz crawl budget?
Core Web VitalsLCP, INP, CLSMierz na realnych danych (CrUX), nie na lab data
JS SEORenderowanie, SSR, lazy loadCzy treść jest dostępna bez obsługi JS? Czy crawlery AI ją parsują?
Struktura treściH1-H6, klastry, linkowanie wewnętrzneCzy architektura wspiera topical authority?
Content qualityPokrycie tematyczne, information gain, E-E-A-TCzy treść dodaje coś, czego nie mają konkurenci?
Schema markupJSON-LD: Person, Organization, Article, FAQ, ProductCzy dane strukturalne wspierają retrieval i rich snippets?
Off-pageProfil linków, anchor text, jakość domenCzy masz linki z domen o realnym ruchu i tematyce?
Brand entitysameAs, Knowledge Panel, branded search, entity stackingCzy Google rozpoznaje Twoją markę jako encję?
AI visibilityAI Overviews, cytowania w LLM, llms.txtCzy Twoja marka pojawia się w odpowiedziach AI?
UX / NavboostCTR, dwell time, bounce to SERP, EffortScoreCzy użytkownicy zostają na stronie, czy uciekają?
SiteFocusScoreTematyczny fokus domenyCzy domena jest skoncentrowana na jednym temacie, czy rozrzucona?
Social w SERPReddit, Quora, fora, YouTube w wynikach brandowychCo mówi się o Twojej marce na platformach UGC?

Dopasowanie do intencji

Kiedyś SEO sprowadzało się do umieszczenia frazy w title, H1, URL i treści. To nadal ma znaczenie, ale od lat kluczowe jest dopasowanie do intencji wyszukiwania (search intent).

Google coraz lepiej rozumie, czego użytkownik naprawdę szuka. Jeśli ktoś wpisuje „kalkulator BMI”, chce narzędzia, a nie artykułu o BMI. Jeśli szuka „najlepsze laptopy 2026″, oczekuje rankingu z porównaniem, nie definicji laptopa.

To oznacza, że przed tworzeniem treści trzeba przeanalizować, co faktycznie rankuje na daną frazę. Jakie formaty dominują (poradnik, lista, narzędzie, produkt)? Jakie pytania towarzyszą w People Also Ask? Co jest w AI Overview?

Dopiero po tej analizie można zaprojektować treść, która ma szansę rankować, bo jest dopasowana do tego, co Google uważa za najlepszą odpowiedź na dane zapytanie. A to się zmienia w czasie, dlatego monitoring intencji powinien być ciągły, nie jednorazowy.

Ważna kwestia: planując treść pod intencję, myśl o konkretnym użytkowniku, nie o „wszystkich.” Fraza „audyt SEO” może być wyszukiwana przez in-house marketera szukającego checklisty, przez CMO szukającego firmy do audytu, albo przez studenta piszącego pracę. Każdy z nich potrzebuje innej treści. Twój core target decyduje o tym, jaki angle przyjmiesz.

Najczęściej zadawane pytania o SEO

Ile trwa pozycjonowanie?

Pierwsze efekty SEO są widoczne zwykle po 3-6 miesiącach. Stabilne pozycje na konkurencyjne frazy to 6-12 miesięcy. SEO to proces ciągły: nie da się „zakończyć pozycjonowania”, bo konkurencja nie śpi, a algorytm się zmienia.

Ile kosztuje SEO?

Usługi SEO w Polsce kosztują od kilkuset do kilkudziesięciu tysięcy złotych miesięcznie, w zależności od skali projektu, konkurencyjności branży i zakresu prac. Na koszty składają się: czas specjalisty, budżet na linki, narzędzia i treści. Tańsze nie znaczy lepsze: SEO za 500 zł miesięcznie to zwykle pozycjonowanie na frazy, których nikt nie szuka.

Czy SEO się opłaca?

Ruch organiczny konwertuje lepiej niż większość płatnych kanałów, bo trafia do osób aktywnie szukających rozwiązania. W odróżnieniu od Google Ads, raz zbudowana widoczność generuje ruch bez kosztu za kliknięcie. Koszt pozyskania klienta (CAC) z SEO spada w czasie, bo treści i linki pracują latami.

Czy SEO działa w 2026 roku?

Tak. Google przetwarza miliardy zapytań dziennie. AI Overviews i ChatGPT Search korzystają z treści stron internetowych jako źródła (grounding). SEO nie umiera. Ekosystem się poszerza: do klasycznego wyszukiwania dochodzą AI search, Social SEO i agentic commerce.

Czy mogę robić SEO samodzielnie?

Podstawy tak: poprawna struktura strony, dobre treści, Google Search Console. Ale skuteczne SEO na konkurencyjne frazy wymaga doświadczenia, narzędzi (Ahrefs, Sitebulb, Surfer) i budżetu na linki. Większość firm korzysta z agencji lub konsultanta, bo samodzielne pozycjonowanie jest możliwe, ale bardzo czasochłonne.

Usługi SEO

Jeśli szukasz strategicznego wsparcia SEO, chętnie porozmawiam o Twoim projekcie. Pracuję jako niezależny konsultant SEO (strategia, audyty, architektura treści, AI visibility, BUXS Framework) oraz prowadzę agencję takaoto.pro (realizacja: content, linki, technical SEO, PPC).

Współpracę zaczynam od audytu diagnostycznego. Nie sprzedaję „pakietów pozycjonowania.” Każdy projekt scoping’uję indywidualnie, z nazwanymi założeniami i nazwanymi trade-offami.

Zapisz się na konsultacje SEO

Dalsza lektura

Jeśli chcesz pogłębić wiedzę, polecam zacząć od tych tekstów:

Semantic SEO i encje:

AI search i retrieval:

Content i architektura:

Link building i offsite:

Branża i eksperci:

Dzięki za przeczytanie i do zobaczenia w SERPach (albo w AI Overviews).

Udostępnij ten post:

    Let's talk about SEO!

    This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.