„A SEO nem halott. De most már legalább tudjuk ki ölte meg.” – eszmefuttatás és jövőkép
Disclaimer: ez a cikk egy véleménycikk. A szerző semmilyen felelősséget nem vállal a benne leírtakért. Na, jó. Azért mégis.
Előfordult már veled, hogy véletlenül olyan frappánsat mondasz, hogy még te magad is meglepődsz rajta? Aztán amikor látod, hogy mennyire tetszik másoknak, akkor a mondásod beépül az aktív szókincsedbe. Valami hasonló történt velem is az egyik este. Egy másik (kérésre meg nem nevezett), SEO-ssal beszélgettünk, és ő azt mondta:
2025-ben sokan mondják, hogy „SEO is dead”. Hát pedig még mindig nem. De legalább már tudjuk, hogy ki a gyilkos.
Ahogy elhangzott ez a gondolat, nálam egyből bekapcsolt néhány dolog. Merthogy a mondás tényleg találó. Évek óta jelennek meg cikkek, hogy SEO is dead. Már 2005-ben is megírták, azóta pedig évről évre előkerül a téma. Itt egy screenshot, 2005-ből, konkrétan 20 évvel ezelőttről. Oda van írva: SEO is Dead…again.

De, hogy mennyire nincs konszenzus a kérdésben, ezt a keresést most futtattam, 2025. június végén.
Az AI Overview határozottan állítja: „No, SEO is not dead.”
Alatta az 1. organikus találat címe: „SEO is Dead, According to Google.”

Ha akartam se tudtam volna ennél „metább” / örkényebb dolgot kitalálni illusztrációnak.
De azon kívül, hogy sírunk / nevetünk ezen a helyzeten, most mégis mi az igazság?
A válasz előtt jöjjön egy kis történelemóra.
A Google történetét négy nagy korszakra lehet bontani.
- az indulás (minimalista, fizetés nélküli kereső)
- kísérleti szakaszok
- a gépi tanulás + mesterséges intelligencia felerősödése
- asszisztens-alapú kereső
Most járunk valahol a 3-as és 4-es blokk határán. A 4-es szakaszban a keresés pedig át fog alakulni egy személyre szabott, párbeszédre épülő, proaktív segédeszközzé. Erre írtam azt egy korábbi cikkben, hogy 10 év múlva a gyerekeim röhögni fognak azon, hogy mekkora boomer vagyok, mert anno képes voltam 10 kék link között guberálni, hogy megkapjam valamire a választ. De nézzük ezeket a korszakokat szép sorban.
Google 1. korszaka: az indulás (1998–2000)
A Google 1998-ban indult világhódító útjára. Abban az évben, amikor a Backstreet Boys volt a világ tetején. Az induláskor nagyon egyszerű volt az értékajánlat. Ott egy keresőmező, alatta 10 találat. Nincsenek hirdetések. Gyors, pontos működés jellemezte.
A mai napig kering egy híres, 1999-es magazin hirdetés, amiben a Google ezt állítja magáról: pure search engine, no weather, no news feed, no links to sponsor, no ads, no distraction.

Nah, ehhez képest tudjuk, hogy ma hol tartunk. Mindennek az ellenkezője igaz már. De akkor, abban az időben ez volt a lényeg. És igaz is volt.
Számos egyéb kereső volt a piacon, de a Google nagyon hamar elképesztő népszerűségre tett szert. És ennek mi volt az oka? A jobb algoritmus és a jobb technológia. A Google fő előnye egyébként a PageRank algoritmusban rejlett (és a mögöttes random surfer modell-ben, de erről majd később bővebben lesz szó). Ők nem csak a technikai és tartalmi faktorokat vették figyelembe, mint a legtöbb versenytárs, hanem az oldalakra mutató linkeket is beépítették a rangsoroló algoritmusba. Ezért lettek a Google találatok sokkal „jobbak”, mert olyan tartalmakat ajánlott a keresések során, amik gyakran voltak említve más webes tartalmakon. Ez ma már triviálisnak tűnhet, de 1998-ban tényleg óriási előrelépés volt. Akkor még tényleg azért linkelt be valaki egy webes tartalmat, mert az jó / érdekes / hasznos volt. Ez pedig segítette az algoritmust, hogy melyik találatok a leghitelesebbek.
Google 2. korszaka: tesztek, tesztek, tesztek (2001–2010)
A 2000-es évek eleje a folyamatos, de úgy értsd, hogy tényleg folyamatos finomhangolások és A/B tesztek időszaka volt. Évente akár 15-20 ezer kísérletet végeztek. Ami bevált, azokat pedig beépítették az éles algoritmusba. Ami viszont lényeges információ, hogy itt ezek a tesztek még „kézzel készültek”: a tervezőasztalon kitalálták, a fejlesztők implementálták, az adatokat elemezték és megfelelő konfidencia mellett vagy elfogadták vagy dobták. Az új keresési funkciók pedig szép lassan megjelentek, először az USA-ban, majd földrajzi és nyelvi alapon az egész világon elterjedtek.
Google 3 időszaka: gépi tanulás, MI előkészítése (2011–2022)
Ahogy nőttek a hirdetési bevételek, úgy kezdett el a Google külső és egyéb szolgáltatásokkal is kísérletezni. De ezeket végül szinte mind lelőtték. Ilyen volt a Google+, a Knol vagy épp a Sidewiki is. A 2011-es évektől kezdve nagyon erősen fókuszáltak arra, hogy a kereső még jobb legyen. A több keresés ugyanis több bevételt jelentett. Ekkorra ugyanis a Google Ads hirdetések adták a bevétel több mint 90%-át.
Ami a keresést illeti, ebben az időszakban 3 alapvető technológia / módszertan került előtérbe, amelyek döntően hatnak a mai napunk keresésére is. És egyben jelezték már akkor is az irányt.
- Link Graph – a PageRank
- Social Graph – felhasználói kapcsolatok, adatok elemzése
- Knowledge Graph – szemantikus entitások összefüggéseinek megértése
Link Graph
Az igazsághoz hozzátartozik, hogy a Link Graph már a kezdetektől fogva ott volt az algoritmusban. Ez tehát nem egy új belépő, de eddigre sokat finomodott. Mindjárt el is mondom, hogy miért. De előtte egy kis fogalom-magyarázat.
Maga a Link Graph korábban a random, itt pedig már a reasonable surfer model alapján működött. A Reasonable Surfer Model a Google „linkértékelési modellje” (a random modell továbbfejlesztése), ami a PageRank korábbi egyszerű számítását finomítja. Míg az eredeti modell minden linket egyformán kezelt, a Reasonable Surfer azt feltételezi, hogy egy ésszerű felhasználó (a „reasonable surfer”) nem minden linkre egyforma eséllyel kattint.
Vagyis nem minden link egyenértékű. Egy jól látható, releváns link több erőt (vagy ahogy képletesen, de szakmailag helytelenül mondják: nagyobb „link juice”-t) ad át, mint egy rejtett vagy kevésbé vonzó link.
A reasonable surfer modell tehát figyelembe veszi:
- a link elhelyezkedését (pl fő tartalom vs. lábléc),
- a kattintási valószínűséget (pl gomb formájú vagy szövegbe ágyazott),
- a link környezetét (pl milyen szöveg veszi körül),
- a link célját (releváns-e az oldal témájához).
És ezt egészítjük ki azzal, hogy az adott weboldal, ahonnan a link jön, milyen minőségű. Történt ugyanis, hogy amint seo-sok rájöttek arra, hogyha linkek százaival és ezreivel elárasztják a fórumokat, random bloghálózatokat, akkor könnyen és gyorsan a találati lista tetejére lehet kerülni. Kijátszották a random surfer modell hibáit. Ennek vetett véget a Google Pingvin algoritmus frissítés, ami 2012-ben jött ki. (Előtte pedig 1 évvel, 2011-ben a Google Panda, ami a low-quality tartalmat büntette rommá). Itt konkrétan egyik napról a másikra tűntek el weboldalak a top találatok közül. Miért? Mert innentől kezdve nem a mennyiség volt a lényeg. Hanem a minőség ÉS a mennyiség. De a fő hangsúlyt áthelyezték a minőségre. Tehát 1 releváns, hiteles domainről szerzett link többet ért mint 10 random, low quality oldalról érkező link. Ez egyébként a mai napig nem változott. De vissza az eredeti témához.
Social Graph
A social graph ekkor még egy relatív új dolog volt, de persze nem volt teljesen ismeretlen sem. Hasonlóan ahhoz, ahogy a Google a weboldalak közötti kapcsolatokat elemezte, itt elkezdte a személyre szabást is. Az emberek közötti explicit (nyílt) és implicit (rejtett) szociális kapcsolatokat is vizsgálta, hogy megértse, kik vagyunk, mire keresünk, mit lehet tudni rólunk és ennek megfelelően szabta személyre a keresési eredményeket. Ez persze nagyon sokat segített neki a Display Network hálózatban megjelenő hirdetések célzásában is. De ebben az időszakban jelent meg az a „tény”, hogy két ember nem ugyanazt a találati listát kapta már egy keresés során. Ekkor ez még újdonság volt, ma alapvetés.
Knowledge Graph
A Knowledge Graph (magyarul talán tudásgráf) ekkor egy valóban újszerű és izgalmas elemnek tűnt. A Google célja az volt, hogy különböző entitásokat szemantikai szinten kapcsoljon össze. Ez volt igazából a mesterséges intelligencia előszobája. Ekkor még nem tartottunk ott, hogy a „neurális hálók” aktiválódjanak, de a Google megpróbálta teljesen új szintre helyezni a saját indexét. Ez volt egyébként az az időszak, amikor az utolsó olyan fejlesztő is elhagyta a Google-t, aki értette az algoritmus „teljes működését”. Történt ugyanis, hogy 2015-ben kijött a Rankbrain algoritmus. A RankBrain egy machine learning-based search engine algorithm.
Ha visszaemlékszel pár bekezdéssel korábbra, akkor volt olyan év, amikor a Google 20 ezer A/B tesztet is futtatott. Azokat mind kézzel rakták össze. Nah, a Rankbrain abban „segített”, hogy ezeket a teszteket már az algoritmus találta ki és futtatta le, itt jött képbe a gépi tanulás. Ha valami több kattintást hozott vagy épp alacsonyabb SERP bouncebacket okozott akkor pedig beépítették az algoritmusba. Itt egészen hajmeresztő megoldásokat is bepakolt a RankBrain az algoritmusba, amit utána kézzel kellett kigyomlálni belőle. Ez volt az a pont, amikor több nagyon korai alkalmazott és senior fejlesztő is kicsekkolt a cégtől, mondván ők ebből már nem kérnek. Ezt nem én találtam ki, hanem a 2015-2018 közötti cikkek, iparági „híradások” erről szóltak elég gyakran. Akkor aktívan olvastam ilyeneket, és nagyon sűrűn belebotlottam ezekbe a cikkekbe.
A lényeg az, hogy ebben az időszakban alapoztak meg a mesterséges intelligenciának: elkészültek az alapok ahhoz, hogy neurális hálók segítségével a természetes nyelvi, kép- és hangfeldolgozás is realitás legyen.
A korszak végeredménye, hogy a Google képes lett a kontextus alapú, személyre szabott válaszokra (akár viselkedés, hely, idő vagy épp eszköz alapján). Szerintem ez az, amit a többség mára elfogadott, hogy valójában ez a Google Search.
Csak az élet meg megy tovább.
Google 4. korszaka: az AI (2022–?)
2022-ben a Google „nem várt kihívót kapott”. 2022. novemberben launcholt az OpenAI fejlesztésében álló ChatGPT, ami sokak szerint megváltoztatta, szerintem csak felgyorsította azt a folyamatot, ami egyébként is érkezett volna.
(Itt megint egy kis kitérő, de le kell írjam, mert 2 éve tartok AI képzéseket, és eddig egyetlen egy ember tudta, hogy a ChatGPT-ben mit jelent a GPT. Pedig elképesztően fontos: Generative, Pre-Trained, Transformer. GPT. Röviden: a lényeg itt az, hogy ezek a generatív modellek nem definitív választ adnak, hanem egy valószínűségi modell alapján probabilisztikus módon válaszolják generálják a tartalmat. Mit jelent ez: nem fogod kétszer ugyanazt a választ kapni. Még akkor sem ha pontosan ugyanazt kérdezed, ugyanakkor, ugyanarról az eszközről. Mindig lesz benne egy „random faktor”.)
Azt szerintem még a blog olvasói közül is kevesen tudják, hogy az OpenAI ChatGPT mögötti alaptechnológiáját maga a Google „fejlesztette ki” és publikált róla éveken keresztül. Csak nem a Google volt az első, aki kereskedelmi célú alkalmazást rakott az egész mögé. Hanem az OpenAI. Innentől kezdve viszont a Google válaszlépésre készült. Évekig ültek a technológián, de most „visszatámadásba” kellett lendülni.
Ennek a folyamatnak az egyik lépése, hogy a Google 2024-ben útjára indította az AI Overview szolgáltatását, amiről itt írtam részletesen. A lényeg az, hogy a Google AI segítséggel válaszol meg nagyon sok keresést. Tehát nem definitív választ kapunk, amit egy weboldalról vesz át és jelenít meg. Hanem egy LLM segítségével összegyűjt egy csomó anyagot, majd egy (másik) LLM segítségével megválaszolja az adott kérdést. Ennek az eredménye, hogy nagyon sok keresésnél jelentősen csökkenni fog az organikus forgalom. Az AI Overview 2025. május végén érkezett meg a magyar piacra, és már most látni 20-25%-os eséseket bizonyos piacokon. Főleg ott, ahol nagyon jelentős az „informational content és search” aránya.

Ez ellen pedig nem igazán lehet védekezni. Ez az új „norma”. Én a saját weboldala(i)m esetében is ugyanolyan védtelen / kvázi tehetlen vagyok, mint bárki más a piacon.
De a folyamat nem fog itt megállni. Egyrészt mert tudjuk, hogy valamerre mindig tartunk. Másrészt pedig a Google 2025. májusban azt is bejelentette, hogy mi a search jövője: Az AI Mode.
Az AI Mode valójában egy csomó AI Overview összefűzve. Az AI Mode egyrészt a hagyományos keresés (traditional search) chatbotizálódása. Másrészt a „frictionless search” és a „context alapú keresés” tökéletes eszköze. Nem véletlenül jelentette be a Google úgy az AI Mode-ot, hogy „a new way to search”.
Mivel a Googlenek megvan minden fontos adata rólunk (social graph alapján) így a végcél elég egyértelmű is. A Google egy proaktív virtuális asszisztenssé akar válni. Nemcsak oda akarja adni a találatot, hanem már összetett feladatokat fog végrehajtani, képes kutatni, információkat összefoglalni.
Nem is olyan soká képes lesz gyógyszer-ütközéseket kimutatni, bevásárolni a hétvégi vendégvárásra úgy hogy a menüt is ő találja ki, vagy épp személyre szabott útitervet készít egy kirándulásra (mi az ideális útvonal, autót bérelj vagy vonattal menj, szállásokat hasonlít össze és így tovább).
A hagyományos keresésből párbeszéd alapú keresés lesz, kérdés–válasz interakciókkal. És mivel minden infót tud rólunk, ezért ez az egyéni keresési profilok alapján testre is lesz szabva. Utálsz hosszú távon vezetni? Tudni fogja rólad. Szereted a homokos tengerpartot? Azt is tudja. Utálod, ha 27 fok felé megy a hőmérséklet? Nyilván tudja. Szereted a focit? Hogyne tudná. Gyakran repülsz fapadossal? Tudja. A folyamat végén azt fogja ajánlani, hogy akkor és oda menj kirándulni, amikor ezek mind teljesülnek és még egy meccsre is ki tudsz menni.
A (nagyon) távoli jövőben maga a Google gyártja majd a tartalmat. Nemcsak arról lesz szó, hogy egy keresésnél válaszokat ad vissza, hanem megpróbál helyetted kommunikálni, tárgyalni vagy épp foglalni. És ebből a szempontból a keresés klasszikus fogalma meg is szűnt, mert az alapvető tudás már automatikusan „magától értetődő” lesz. Nem maga a content lesz a lényeg. Az alap. Ő a kontextust teszi hozzá az egészhez. És segít majd áthidalni a nagyon sok kis apró ugrást, amit eddig kognitív módon neked kellett megtenni.
A Google annak idején azért jött létre, hogy rendszerezze az emberiség által létrehozott információkat. Hogy ne egy könyvtárba kelljen menni, ha valamilyen információra szükséged van. Hanem a számítógépedről is elérj mindent. Csak annak idején azt a tartalmat még az emberek gyártották.
Mostanra meg eljutottunk oda, hogy a tartalmat a gép gyártja. Fontos, hogy nem feltétlen az AI. Hanem a gép. És ebben óriási félreértés van sokak fejében, ahogy látom. Ugyanis a Google nem magától fogja kitalálni, hogy mikor van fapados repülő egy olyan városba, ahol épp BL forduló is van és nincs 27 fok. Hanem különböző weboldalak, szolgáltatók, API hívások segítségével csinálja meg a kutatási folyamatot. Ezt eddig is megcsináltad, csak míg neked 1.5 órába vagy 1.5 napba telt, addig ő ezt conversational stílusban 1.5 perc alatt megoldja majd neked.
Én több hete azon gondolkodom, hogy mit kell majd most az GEO / AI SEO (akárhogy nevezzük) korszakában másként csinálni, mint korábban. A válaszom: semmit. Mindent ugyanúgy kell csinálni. Mármint, ha a SEO alatt eddig azt értetted, hogy:
- van egy technikailag normálisan összerakott, jó oldalad (jó információs architektúra, mobilbarát, gyorsan tölt be, van schema markup, nem szivatod magad rommá kliens oldali JavaSripttel, stb)
- a tartalmad kulcsszó fókuszú, jól optimalizált, a fontos tartalmak mélységében ki vannak dolgozva, és széltében is kellően alapos (topical modeling és authority miatt)
- a linkjeid minőségiek és mennyiségben is megvannak
Persze ezek esetében mindig az a fontos, hogy ezt a rendszert a többi versenytárs függvényében (is) vizsgáld. Ha mindenhol el vagy maradva a többiektől, akkor garantálom, hogy az AI SEO világban is el leszel maradva. Ha pedig mindenben vered őket, akkor új világban is előrébb fogsz szerepelni. És az AI Overviewkban is téged fog többnyire az adott LLM szerepeltetni. Nem mindig, de többnyire igen. Ugyanis ahogy azt korábban is írtam: az egész generatív rendszer valójában egy valószínűségi modellen alapszik. Nem definitív, hanem probabilisztikus. Tehát simán előfordulhat, hogy most épp nem téged hivatkozik és ajánl. De a következő 99 esetben meg majd igen. Tudsz ellene tenni? Nem igazán. Az esélyeidet persze tudod növelni, de definitív eredményt, stabil és állandó jó pozíciót nem tudsz garantálni. Még akkor se, ha ez a munkád és ezzel kelsz meg fekszöl. Csináld jól a SEO-t, ahogy eddig is kellett volna csinálni.
És itt jön el a fő kérdés, hogy akkor most a SEO az halott vagy sem? A válasz egyszerű: most még nem az. Korántsem. A SEO átalakulóban van. Viszont az igaz, hogy a hagyományos SEO, amilyennek ma vagy épp 10 éve ismertük, az a Google felületén szép lassan visszaszorulóban van. Ha úgy nézzük, akkor haldoklik. De közben azt is látjuk, hogy a gyilkos fegyver kinek a kezében van.
Tetszett a cikk? Szeretnél még több ilyet olvasni?
Akkor iratkozz fel és küldünk egy emailt, ha hasonló cikket írunk!
Hozzászólások
Moderáld magad – vagy mi fogunk. :)
Na jó, nem fogunk, szóval csak ésszel!