Blog „Visszaesett az organikus forgalom, de nem tudom miért! Szerinted?” – esettanulmány
visszaesett organikus forgalom
Írta:

„Visszaesett az organikus forgalom, de nem tudom miért! Szerinted?” – esettanulmány

Pontosan ez a kérdés jött felém pár hete. A kiinduló pont pedig ez volt.

Egyik napról a másikra (július 3-án) elkezdett esni a forgalom Google Search Console szerint. Aztán elsőre nem nagyon lehetett tudni, hogy miért.

Ugyanis semmi utalt arra, hogy gond lenne. Az esetet végül sikerült is megoldani, meg nem is. Most ennek a gondolatmenetén megyek végig ebben a cikkben.

Visszaesett a forgalom! Mit tegyünk?

Először is nézzük meg, hogy a visszaesés:

  • a teljes domain érintette?
  • csak bizonyos URL-t vagy URL-eket?
  • esetleg csak 1 kulcsszót vagy csoportot?

Ehhez a Search Console Compare funkcióját érdemes előszedni. Kell egy időszak az esés előtt, és egy az esés után.

Ha csak egy mutató választunk ki (pl Clicks), akkor sorba tudunk rendezni a „Difference” oszlop szerint és itt jól látható, hogy most az esés főként 2 (vagy esetleg 3) URL-t érintett.

Vagyis máris azonosítottuk, hogy itt valami izolált esetről van. Tehát nem az egész domaint érintette a probléma. Hanem dedikált URL-eket.

Hasonló hirtelen esésnél az okok számát elég jól lehet szűkíteni egyébként:

  • Algoritmus frissítés
  • Technikai hiba
  • Mérési hiba

Kicsi az esélye, hogy egy versenytárs csak úgy egyik napról a másikra elvinné a forgalmat ilyen arányban. Vagy szezonalitás oka lenne. Tehát mivel itt nem lassú lecsorgást látunk, hanem intenzívebb esést, de nem is nullázódást így külön érdekes a dolog. Mert valójában csak 2 URL volt érintett a dologban.

Mi lehet a háttérben? Elsőre tippre:

  • noindex került az oldalra
  • http + https hiba (pl lejárt az SSL)
  • canonical probléma
  • Google mérési hiba

Ezek elsőre jó megérzésnek tűnnek, de azért ez nem tippelde, úgyhogy mélyebbre kell ásni kicsit.

Következő lépésben megnéztem hogy az organikus pozíciók hogy alakultak kifejezetten erre a két URL-re. Ha esik az átlagos helyezés (tehát a Difference „mínusz nagyonsok”), akkor lehet valami algo frissítés.

Az érdekes hír az, hogy az átlagos helyezések érdemben nem változtak. Nem estek, nem emelkedtek. Gyakorlatilag stagnáltak.

Tehát:

  • nem változott az átlagos helyezés
  • nem volt ezidőben komolyabb algo frissítés
  • de mégis kevesebb a forgalom és az impression szám is
  • és nem is sitewide problémáról van szó, hanem csak 2 URL-t érintett

Ez volt az a pont, ahol konkrétan elakadt elsőre a dolog. Mert minden jónak tűnt. A canonical URL jó volt, saját magára mutatott a két url-nél. Nem voltak hibás belső linkek sem, ami félrevihette volna a Googlebotot. A Rank Tracker se mutatott semmilyen problémát vagy eltérést, hozta ugyanabban a pozícióban a kifejezésekre az oldalt. Így ki tudtam zárni a GSC problémáit is, amiről itt írtam korábban.

Semmi olyan anomália nem látszott, ami csak ennél a két URL-nél jelent volna meg, és a többinél nem.

Ilyenkor a következő lépés, hogy megnézzük az Analyticset. Itt sajnos ehhez nem volt hozzáférés, mert ott még azonosítani lehetett volna, hogy tényleg visszaesett a forgalom ezekre vagy csak a Search Consoleban van valami hiba. Mondjuk a hibát onnan meg lehetne visszafejteni, de legalább ellenőrzésre jó lett volna.

Itt anno szinte biztosra vettem, hogy valami canonical probléma lesz a háttérben vagy mérési hiba. De az okra nem jöttem rá.

Mígnem, egy random ötlettől vezérelve a https Search Console fiók mellett be lett kötve pluszban a http fiók is. Az igazság az, hogy ez korábban is be volt kötve az ügyfélnél, gyűjtötte is az adatot. Csak nem volt hozzáférés biztosítva. Ha ez nem lett volna bekötve, akkor erre nem jöttünk volna rá.

És itt mi tűnt fel?

Igen, az elveszített forgalom!

2020. július 3-4-én eltűnt a https Search Console fiókból a tartalom.

És ezzel együtt megjelent a http GSC fiókban.

Ezzel legalább már az első problémát megoldottuk.

A forgalom nem tűnt el. Csak átalakult! Https-ről http-re.

De jön a kérdés: mégis mitől? Miért?

Szerencsére a GSC legacy toolok között megtalálható a Crawl Stats így arra is rá tudtam nézni.

Azt gyanítottam, hogy itt majd július 3. körül lesz egy kiugró érték, de nem. Szóval ez vakvágány. Akkor irány a Coverage Report, hátha ott előjön valami.

Találtam is érdekes nyomokat. Pont azelőtt kezd el megnőni a valid URL-ek száma a http fiókban, ahogy előjön a probléma.

És ezzel együtt párhuzamosan csökken le a https fiókban a valid url-ek száma.

Logikus. Nem tűnt el a Googleből, csak átalakult. Httpre.

De miért? Erre is a Coverage Report ad részben választ. Csak itt már az Errorokat kell nézni.

Pont akkor nő az errorok száma, amikor a forgalomesés jelentkezik.

Alul látszik is: Submitted URL has crawl issue.

Vagyis a Google felment a https oldalakra, de ott valami hibát talált. Itt összesen 20-25 oldal volt érintett. Ezekből pedig kettőt dobott át http kiszolgálásra a Google találatok között.

Ezért látszott esés a https fiókban. Merthogy az adatok a http fiókba kerültek át.

És jön a millió dolláros kérdés? Mi okozta a crawl issuet?

Na ez az a pont, ahol megint csak tippjeim vannak, mert a konkrét választ már nem tudom. De szinte biztos, hogy valamilyen szerver probléma volt.

Vagy az SSL certificate járt le, és került át az indexben a https URL http-re, de akkor meg több oldalt kellett volna érintenie a hibának. Nem csak 2-t. De ez egész jó tipp itt.

Lehetett más szerver hiba is (pl 500-as error), és a Google több URL esetében is látta a problémát, de csak a nagy forgalmú oldalt dobta át http-re. És mire a többit is átrakta volna, addigra megoldódott a gond.

Hasonló ötleteket és tippeket még lehet bőven dobálni, de igazából ezen a ponton több adatra és infora lenne szükség. Mondjuk konkrét szerver log fájlokra, ahonnan vissza lehetne fejteni a Googlebot tevékenységét 2020. július 1. és 10. között. Onnan pontosabb képet lehetne kapni a hibáról, ennek hiányában viszont maradnak csak az elméletek.

Nagyon kevés ügyfélnek vannak meg a log fileok, pedig ilyen elemzésekre nagyon hasznosak tudnak lenni. Erről a témáról itt írtam bővebben:

Tanulság

Mindamellett, hogy a teljes problémát nem sikerült még feltárni, van néhány jól azonosítható tanulság is az esetben:

  • A Google Search Console esetében használd a domain property alapú hitelesítést (is). Ott ugyanis látható lett volna az aggregált http és https adathalmaz is. Tehát ki tudtad volna szűrni az esést. Igaz, itt meg az esést magát nem vetted volna észre, csak mágikusan megoldódott volna magától.
  • Az oldal esetében kiderült, hogy bár a canonical URL-ek helyesek voltak, de nem volt helyesen beállítva force https redirect. Így bizonyos esetekben a https helyett betöltődhetett a http URL. Az jó kérdés, hogy ez okozta-e a gondot, vagy csak egy menekülőút volt a Googlebotnak egy szerver vagy SSL hiba esetében. Ezt nem tudni. Szerver log fájlokkal ennek is utána lehetne járni, de a lényeg, hogy már ez is javításra került.
  • Ha nem zavar, akkor legyen bekötve az összes URL prefix verzió Search Console-ban. Vagyis a:
    1. http://
    2. https://
    3. http://www
    4. https://www is.
  • Az esetek 99%-ában ezekre nem lesz szükség. De pont az az 1% (edge use case) lesz az, ahol ezek nagyon hasznosk tudnak lenni.
  • A SEO bizonyos esetekben technikaibb és bonyolultabb annál, mithogy „írj friss és jó tartalmat és akkor rendben lesz minden”. Ha valami technikai hiba lép fel, akkor érdemes keresni egy hozzáértőt, SEO szakit, szomszéd hacker Lacikát, aki tud segíteni. Neki viszont szüksége lesz legalább Google Search Console adatokra, úgyhogy ezt mindenképp kösd be. Még akkor is, ha nem akarsz a közeljövőben SEO-zni. Ártani nem fog.

Illetve van még egy elem, ahonnan el lehetett volna kapni ezt a hibát. Az pedig a rank tracking szoftver. Ezekben ugyanis van olyan funkció, hogy dedikált URL-t rendelsz egy kulcsszóhoz. Vagyis előre megmondod, hogy egy kifejezésre melyik URL-nek kell megjelennie Google-ben. Ő pedig kiabál majd, ha nem az jelenik meg.

Vagyis ha például Rank Trackerben be lett volna állítva az „Assign selected keyword to landing page” opció, akkor amikor a https helyett http jelent volna meg, akkor láttunk volna egy hibaüzenetet.

Ez a warning sign egy sárga kis háromszögként jelenik meg a szoftverben, de itt megint előjön, hogy ezt is csak vizuálisan lehetett volna észrevenni „on the spot”, mert erre meg nincs automatizált riport.

Szóval 100%-ig bizos megoldás ebben az esetben (még) nincs. De tanulság és tanács annál több van. Mindent is meg lehet csinálni, és vissza lehet fejteni. Csak szükség van hozzá a megfelelő eszközökre. Ezeknél pedig előre kell gondolkodni. Legyenek beállítva, legyenek bekötve. Mert így van menet közben el lehet még kapni ezeket a problémákat. Vagy utólag rá lehet jönni arra, hogy mi okozta ezeket. Így pedig meg lehet előzni, hogy újra előjöjjenek!


Hozzászólások

Moderáld magad – vagy mi fogunk. :)
Na jó, nem fogunk, szóval csak ésszel!