
Inbound Marketing Esettanulmány: Startupdate
Az inbound marketing napjaink egyik legdinamikusabban fejlődő marketing ága. Nem csak induló vállalkozások, de nagy brandek is előszeretettel alkalmazzák. A témával kapcsolatban viszont meglehetősen kevés magyar nyelvű anyag érhető el. Ez az esettanulmány egyrészt bevezető az inbound marketingbe, másrészről pedig egy részletes guide is. Egészen pontosan annak az első része.
Mi is az az inbound marketing?
Az Inbound Marketing a marketing egy olyan holisztikus, adatvezérelt formája, amely látogatókat terel az adott márkához és vásárlóvá konvertálja őket.
Tegyünk egy lépést hátra és próbáljuk pontosan megérteni, hogy a fenti definíció mit is jelent. Az inbound marketing ellenpólusa az outbound vagy hagyományos (traditional) marketing. Nézzük néhány példát az outbound és inbound elemekre.Outbound marketing elemek
- cold calling
- cold emails
- hirdetések (TV, rádió, print, billboard)
- reklámok
- PR cikkek
- vásárok, trade show-k
- Lényeg: marketinges fókuszú (marketer centric)
Inbound marketing elemek
- SEO (keresőoptimalizálás)
- blogolás
- Social Media
- interaktív eszközök
- képek, infografika
- videó, podcast
- prezentáció, ebook
- webinar
- Lényeg: fogyasztó / vásárló központú (customer centric)
Bár a fenti bontás is nagy mértékben segíti a megértést, ennél létezik egy jobb bontás is:
Alapvetően két féle marketing létezik: az interruption marketing és az inbound marketing.
Az interruption marketing a tartalomfogyasztási folyamatot megzavarva próbál márkát építeni és vásárlásra ösztönözni. Gondoljunk csak a bannerekre, TV reklámokra, pop-up hirdetésekre.
Ezzel szemben az inbound marketing célja a tartalomfogyasztás segítése méghozzá releváns és könnyen elérhető tartalommal. Jó példa erre sok szakmai jellegű cikk, blogposzt, edukációs videó, infografika, egy tájékoztató prezentáció vagy akár egy webinar. Az inbound tehát elsősorban a fogyasztót helyezi a középpontba, nekik próbál meg értéket közvetíteni. Az outbound vagy interruption eszközök ugyanakkor főként marketinges fókuszúak, legalábbis kiindulópontjuk a meggyőzés / konverzió minél hatékonyabb elérése.
A következő posztban (20-25 percben) egy esettanulmány keretében mutatom be, hogy milyen elemekkel lehet egy már létező márka inbound eszközeit és megoldásait elemezni.
Inbound Marketing Esettanulmány:
Startupdate
Az esettanulmány célja, hogy megmutassa: az inbound marketing túlmutat azon, hogy Facebookra és Twitterre posztolunk naponta, hetente párszor. Természetesen ez sem elhanyagolható, de néhány blogposzt, pár social media bejegyzés és azok megosztása még nem fog jelentős eredményt hozni egy márka számára. Ennél mélyebbre kell ásni és sokkal tudatosabban kell egy cég, startup vagy akár personal brand marketingjét felépíteni. Akik egyetemi, főiskolai keretek között tanulták a marketinget, azok elsősorban elméleti tudással rendelkeznek. És az is főként a tradicionális marketingre korlátozódik. Ezt saját tapasztalatból tudom. Részben ezért döntöttem úgy, hogy az elmúlt időszakban megszerzett tudásomat visszaforgatom egy esettanulmány formájában. Ez nem csak egy blogposzt általános tanácsokkal és elemzések eredményével, hanem egy olyan anyag, amely lépésről-lépésre bemutatja az elemzés teljes folyamatát. A megközelítés hasonló, mint az Everpix-sztori esetében volt, ahol az elemzés a cég üzleti modelljét és pénzügyi mutatóit vette végig lépésről-lépésre.
Az esettanulmányhoz olyan projektet kerestem, amit sokan ismernek a hazai piacon. Rövid keresgélés után a Startupdate-re esett a választásom.
Rövid indoklás, hogy miért is?
- Mert a Startupdate egy jó brand.
- Mert sok blogposzt található az oldalon.
- Mert nem csak egy, hanem több szerző írta a blogposztokat.
- Jelentős a blogposztokhoz kapcsolódó engagement mértéke, sok a komment, a közösségi megosztás.
- Jelen van közösségi média felületeken, komoly követőbázissal.
- Rengeteg követendő példa, megoldás található az oldalon.
- Vannak olyan területek, ahol fejlesztésre szorul az oldal.
- Vannak olyan területek, ahol látszik: menet közben alakult ki csak a marketingstratégia, ezért bizonyos elemek nem teljesen harmonizáltak.
- Vannak olyan quick fix-ek, ahol apró módosítással, jelentős javításokat lehet elérni.
A fenti okok fontos tényezők voltak a választás során. Az elemzés során ki is tértem minden egyes pontra, hol explicit módon, hol pedig csak utalás formájában.
Az esettanulmány felépítése
Inbound Marketing Esettanulmány – 1. rész
- Blog Scraping: végigpásztáztam az összes blogposztot és kigyűjtöttem a legfontosabb adatokat egy Excel fájlba
- Social Stats & Outreach: összegyűjtöttem a blogposztokhoz kapcsolódó közösségi média interakciókat (like, comment, stb)
- Content and Publishing Analysis: a kigyűjtött adatokat végigelemeztem Excelben
Az alábbi elemzéseket is megcsináltam, de ebben az esettanulmányban nem szerepelnek.
Inbound Marketing Esettanulmány – 2. rész (link)
- Title, Headline & Tag Analysis
- WordPress Theme & Plugins
- Broken Link Check
1. Blog Scraping
Időigény: 20-60 perc setup + a scraping időigénye
Eszköz: Kimono vagy import.io
Ahhoz, hogy egy blog tartalmát végig tudjuk elemezni (nevezzük basic content auditnak) szükség van a tartalmakról egy strukturált adatbázisra. Abban az esetben, hogyha egy weboldalról több száz, vagy akár több ezer adatot kell összegyűjteni, akkor a manuális megoldás helyett érdemes egy automatizált módszert használni. A blog scraping során egy előre meghatározott algoritmus szerint végigpásztázzuk egy blog összes tartalmát és onnan az adatokat egy adatbázisba gyűjtjük ki.
Ehhez alapvetően 3 dologra van szükségünk:
- Egy elemezni kívánt blogra, weboldalra
- Azokra az elemekre, kategóriákra, amiket össze akarunk gyűjteni
- Egy eszközre, algoritmusra, amely automatikusan elvégzi a gyűjtést
Az adatok automatikus összegyűjtéséhez létre kell hoznunk egy API-t. Én ehhez két eszközt szoktam használni:
- Kimono (2016-ban a Palantir Technologies felvásárolta őket, azóta pedig megszűnt a szolgáltatás)
- import.io
Mindkét eszköznek megvolt az előnye. Az import.io nekem sokkal szofisztikáltabb, a Kimono kezelőfelülete viszont szerintem sokkal használhatóbb volt. Ha dönteni kell, akkor mindent összevetve inkább az import.io-t ajánlom. Ezért csak az import.io scraping folyamatát mutatom be részletesen. Ha valaki ezt meg tudja csinálni, akkor a Kimonoval is képes lesz megbírkózni.
Nézzük végig lépésről lépésre hogyan lehet összegyűjteni a szükséges információkat a startupdate.hu-val kapcsolatban. Az egyes lépéseket mind szövegesen, mind videós formában rögzítettem. Érdemes először elolvasni a szöveget, majd utána megnézni alatta a hozzá tartozó videót. A videó jobb alsó sarkában található ikonnal teljes méretben nézhetjük meg a videókat.
Teendők
1. Töltsük le az import.io alkalamzást (https://import.io/download/). Ingyenes, csak egy email cím kell hozzá.
2. Telepítsük, hozzunk létre egy fiókot és indítsuk el az alkalmazást. Majd jelentkezzünk be.
3. Hozzunk létre egy új adatforrást (+New Data Source)
4. Nyissuk meg a startupdate.hu oldalt
- a legtöbb blog archív tartalmai elérhetőek rendszerezett formában, mint például a pitch.hu-n, ahol az összes blogposzt megtalálható az alábbi oldalakon.
- https://thepitch.hu/
- https://thepitch.hu/page/2/
- https://thepitch.hu/page/3/
- és így tovább
- Ez nagy mértékben megkönnyíti a scraping folyamatot, mind a setup mind a scraping vonalán.
- A startupdate.hu esetében nem ilyen formában történik az archiv posztok rendszerezése, ezért más elv után kell nézni. Az egyik legegyszerűbb az, hogy az alábbi archív oldalakat listázzuk:
- Mivel a blog 2012-ben indult, ezért 2011-es tartalmat már nem találunk. Ez a 3 gyűjtőoldal tartalmazza az összes elemezni kívánt blogposztot.
- Ha ezzel megvagyunk, akkor elkezdjük az adatkinyerési folyamatot.
5. Megnyitjuk a http://www.startupdate.hu/2014 oldalt.
6. Elindítjuk a folyamatot. (Let’s get cracking)
7. Kiválasztjuk a megfelelő típust (Crawler) majd (I’m there)
Ahogy fent is jeleztem, ezeket a lépéseket mutatja be a következő videó. A jobb alsó sarokba kattintva teljes képernyőben is megtekinthető a videó.
8. Kiválasztjuk az optimális beállításokat (Detect optimal settings) majd (Yes) majd (Multiple)
9. Megtanítjuk a algoritmusnak, hogy melyik az első tartalmi egység, amit elemezzen (Kijelölés + Train Rows). Az import.io itt elemzi a forráskódot, és mi tanítjuk meg neki, hogy melyik rész mit jelent majd az adatbázisban.
10. Ezt addig ismételjük, amíg az összes egyforma tartalmi elemet ki nem jelöltük. Az egységek egymás után rózsaszín és kék színekkel jelennek meg.
11. Ha kész vagyunk az összes elemmel, akkor továbblépünk (I’ve got all 10 rows!)
12. Most megtanítjuk az algoritmusnak, hogy az egyes tartalmi egységeken belül pontosan melyik kisebb egység mit jelent.
13. Hozzáadunk egy sort az adatbázishoz (+Add column), megadjuk a nevét (title), a rekord típusát (Text), majd (Done)
14. Kijelöljük az első blogposzt szerzőjét (Dr. Kádas Péter) majd (Train)
15. Ekkor az algoritmus tudja, hogy a korábban létrehozott (Row) egységeken belül a Title column melyik lesz. Ez alapján az összes többi rekordot már le tudja saját maga generálni.
16. Hozzáadunk egy újabb sort (+Add column), (title), (Text).
17. Majd kijelöljük a (Dr. Kádas Péter) felett (Két Tech Startup Naplója) részt majd (Train).
18. Ezzel az adott szerzőhöz hozzárendeltük a cikket.
19. Ugyanezt a folyamatot megismételjük az alábbiakra
- cikk publikálásának dátuma (date), (Text)
- Angol nyelvű blogoknál a cikk publikálás dátumánál Text helyett érdemes Date attribútumot választani. Magyar esetben ezzel nem igazán bírkózik meg a rendszer, ezért érdemesebb Text-et választani és majd Excelben korrigálni a formátumot.
- cikkhez tartozó címkék (tag), (Text)
- cikkhez tarzozó url (url), (HTML)
- A cikkhez tartozó URL esetében is kell majd egy kisebb korrekciót végezni, de erről majd később írok részletesen.
20. Ha kész vagyunk mindennel, akkor (I’ve got what I need!)
21. Ugyanezt a folyamatot meg kell ismételnünk összesen 5 oldalnál, hogy az algoritmus hiba nélkül működjön. (Add another page)
22. Átmegyünk a következő oldalra: http://www.startupdate.hu/2014/page/2/ majd (I’m there)
23. És megismételjük a 9-20. lépéseket.
24. Szerencsés esetben az algoritmus már automatikusan felismeri az összes adatot, ezért csak kattintanunk kell (I’ve got all 10 rows!) majd (I’ve got what I need!)
25. Majd folytatjuk a http://www.startupdate.hu/2013/ oldalon (Add another page) majd (I’m there)
26. Itt is felismer mindent az algoritmus, megyünk tovább (I’ve got all 10 rows!) majd (I’ve got what I need!)
27. Ezt megismételjük még 2-szer, hogy összegyűljön az 5 oldalunk.
28. Ha kész vagyunk az 5 felvitt oldallal, akkor (I’m done training) majd (Upload to import.io)
29. Elnevezzük a projektünket (Startupdate) és feltöltjük az adatokat.
30. Ha ez kész, akkor elindítjuk a Crawlert (Run crawler).
31. Listázzuk az összes lehetséges archív oldalt, ahonnan tartalmat akarunk összegyűjteni.
- Ehhez a http://www.startupdate.hu/2013/ oldal alján a (Last) gombra kattintunk. Ez alapján tudjuk, hogy összesen 9 oldalnyi archív oldalt kell elemeznie az algoritmusnak 2013-ból. Ezt megcsináljuk 2014-re és 2012-re is. Így az alábbi archív oldalakat kapjuk meg:
- http://startupdate.hu/2014/
- http://startupdate.hu/2014/page/2/
- http://startupdate.hu/2013/
- http://startupdate.hu/2013/page2
- http://startupdate.hu/2013/page3
- http://startupdate.hu/2013/page4
- http://startupdate.hu/2013/page5
- http://startupdate.hu/2013/page6
- http://startupdate.hu/2013/page7
- http://startupdate.hu/2013/page8
- http://startupdate.hu/2013/page9
- http://startupdate.hu/2012/
- http://startupdate.hu/2012/page/2/
32. Mivel megadjuk az összes lehetséges archív oldalt, ahonnan az algoritmus adatokat gyűjt, ezért a page depth-et 0-ra állítjuk majd (Go).
- Az archív URL-ek megadása nyilván nem kötelező. Az eredmény ugyanakkor sokkal megbízhatóbb (sebesség, találati lista, stb), hogyha direkt utasítást adunk a Crawlernek.
33. Ekkor elkezd dolgozni a Crawler és feltölti az adatbázisunkat. A folyamat időigénye a feldolgozandó adatmennyiségtől függ. 1-2 perctől akár órákon át is tarthat. A Startupdate esetében pár perc alatt végzett az algoritmus.
34. Letöltjük az adatbázist.
- Ha csv-ben töltjük le, akkor karakterkódolási problémába futunk magyar nyelvű oldalaknál.
- Ha xls-ben, akkor pedig hyperlink kiolvasási gondokba futhatunk. Ezért én ilyenkor kombinálni szoktam a két megoldást.
- Vagyis az xls-ből átmásolom a szövegeket a csv-be. Így egy fájlban meglesz a szerző, a poszt címe, az url, a dátum és a tag-ek.
- Angol nyelvű blogoknál ilyen probléma értelem szerűen nem szokott felmerülni.
35. A csv-ben már csak egy feladat van hátra, az url formátumát kell megfelelő formára hozni. Itt kijelöljük az összes url-t <a href>-et, majd (Adatok) > (Szövegből oszlopok) > (Tagolt) > (Tovább) > (Egyéb) > (“) > (Befejezés).
36. Majd kitöröljük a nem szükség oszlopokat.
Így megkaptuk, hogy összesen 117 blogposzt jelent meg eddig a Startupdaten. Ezekről pedig megvan az összes általunk kijelölt információ. Később ennek még nagy hasznát vesszük.
Ezen felül a fenti módszerrel én még az alábbi adatokat gyűjöttem össze minden egyes poszthoz:
- értékelések számát
- értékelések átlagát
- szerző értékelését is
- milyen kategóriában jelent meg a poszt.
Ha kész ez a scraping folyamat is, akkor összegyűjtjük az adott posztokhoz tartozó social media interakciókat (Facebook, LinkedIn, Twitter, Google+, stb). Erről szól a következő, Social Stats & Outreach rész.
2. Social Stats & Outreach
Időigény: 5-15 perc
Eszköz: Google Refine Tool vagy URL profiler vagy SharedCount weboldal
Mindhárom eszköznek megvan az előnye és a hátránya. De végeredményben mindegyik ugyanazt tudja. Megadja, hogy az adott blogposztot hányan osztották meg az adott közösségi csatornán.
Hogyan is működnek?
1. Az Elegáns: SharedCount
- Felmegyünk a weboldalra: https://www.sharedcount.com
- Majd (Dashboard), majd (Bulk upload)
- Ide bemásoljuk az összes URL (mind a 117-et, amit kigyűjtöttünk a scraping során).
- Az eredményeket letöltjük csv-ben és az +FKERES (angolul +VLOOKUP) függvénnyel összemásoljuk a két adattáblát.
2. A Hacker: Google Refine Tool
- Letöltjük a programot: http://openrefine.org/download.html
- Elindítjuk, ez megnyitja a böngészőnket, majd (Browse) és feltöltjük a scraping során előállított, de már kiolvasott URL-ekkel rendelkező csv-t vagy xls-t. Majd (Next) és (Create Project).
- Majd (URL), (Edit column) és (Add column by fetching URLs).
- Beállítjuk az alábbiakat:
- New Column Name: Social,
- Throttle Delay 1,
- Expression: „http://api.sharedcount.com/?url=” + value
- Ez a ShareCount API-n keresztül visszaadja nekünk ugyanazokat az értékeket, amiket SharedCount webes felületén is megkaptunk.
- Ez eltarthat pár percig.
- Ha kész, akkor szépen leválogatjuk a szükséges adatokat az alábbi parancsokkal:
- (Social) > (Edit Column) > (Add column based on this column) > (New Column Name) > (Expression)
- value.parseJson()[„Facebook”][„total_count”]
- value.parseJson()[„Facebook”][„comment_count”]
- value.parseJson()[„Twitter”]
- value.parseJson()[„LinkedIn”]
- value.parseJson()[„GooglePlusOne”]
- value.parseJson()[„Pinterest”]
- (Social) > (Edit Column) > (Add column based on this column) > (New Column Name) > (Expression)
- Ha ezzel kész vagyunk, akkor letöltjük a fájlt xls-ben, Export > Excel.
- Ennek a megoldásnak az az egyik előnye, hogy itt már nem kell összemásolni a két dokumentumot, hanem a letöltött fájlban már mindent megtalálunk rendszerezve.
3. A Hatékony: URL Profiler
- Letöltjük az URL Profilert: http://urlprofiler.com/
- Regisztrálunk egy 30 napos, ingyenes verziót.
- Elindítjuk. Az URL Level Data résznél kiválasztjuk a (Social Shares) funkciót.
- Majd a jobb oldali URL listába bemásoljuk a 117 URL-t.
- Futtatjuk (Run Profiler).
- Beállítjuk, hogy hova és milyen néven mentse a dokumentumot.
- Ha kész, megnyitjuk.
- Előnye, hogy gyorsabb mint a Google Refine megoldás.
- Egyszerre több attribútumot is lehet elemezni vele.
- Hátránya, hogy 30 nap után fizetős.
Ha kész vagyunk a social statisztikák összegyűjtésével, akkor elkezdhetjük elemezni az Excel fájlunkat.
3. Content and Publishing Analysis
Időigény: 20-30 perc
Eszköz: Excel
Összegyűjtöttük a legfontosabb információkat, lassan ideje belekezdeni az elemzésbe. Előtte viszont érdemes még néhány kategóriát (oszlopot) létrehozni az adatbázisunkban.
Én az alábbi kategóriákat hoztam létre:
- FB kommentek száma
- összes social interakció
- posztolás hónapja
- posztolás napja
Ha ezzel is kész vagyunk, akkor kezdjünk neki az elemzésnek.
Teendők
- Hozzunk létre egy új munkalapot (Shift + F11).
- Nevezzük el pivot-nak vagy kimutatásnak. Majd (Beszúrás) > (Kimutatás).
- Tartománynak jelöljük ki az eredeti fülön az egész adattáblát.
- Majd kezdjük el a megfelelő mezőket a Kimutatás szerkesztő felületén összehúzogatni.
Amilyen sokrétű az adatbázisunk, olyan sokrétű elemzést tudunk itt létrehozni.
Pillanatok alatt választ tudunk adni az alábbi kérdésekre például:
- Ki a legnépszerűbb blogger a közösségi médiában?
- Ki írta a legtöbb cikket?
- Ki írta a legnépszerűbb lean kategóriába tartozó cikket?
- Kinek a legjobb az értékelése?
- Melyik kategóriában melyik a legnépszerűbb poszt és azt hányan osztották meg?
Néhány statisztika a Startupdate blogposztjaival és bloggereivel kapcsolatban.
Blogposztok megoszlása szerzőnként:
Szerző |
Posztok száma |
Dr. Kádas Péter |
86 |
Molnár Attila |
4 |
Tóth Orsolya Anna |
4 |
Andras Gyorfi |
3 |
Csóti Janka |
3 |
Gabor Papp |
3 |
Kubatov Márk |
3 |
Bennett Ian |
2 |
Dr. Bajorfi Ákos |
2 |
Szántó Péter |
1 |
Brown Chris |
1 |
Berkovics Dalma |
1 |
Varga Attila |
1 |
Zsembery Levente |
1 |
Nemes András |
1 |
Romhány Gergely |
1 |
Blogposztok megoszlása kategóriánként:
Kategória |
Posztok száma |
nézz és láss | 48 |
term sheet | 25 |
pitching | 12 |
média és marketing | 12 |
lean | 10 |
no category | 6 |
jogi csavar | 4 |
Kategóriák népszerűsége és értékelése:
Kategória |
Átlagos Social | Értékelés |
nézz és láss | 130 | 4.72 |
pitching | 129 | 4.96 |
média és marketing | 105 | 4.11 |
term sheet | 69 | 4.69 |
no category | 67 | 3.70 |
lean | 65 | 4.66 |
jogi csavar | 45 | 5.00 |
Napok szerinti megoszlás:
Nap | Posztok száma | Avg Social | Avg Rating |
csütörtök | 31 | 119 | 4.72 |
hétfő | 28 | 86 | 4.57 |
kedd | 19 | 125 | 4.61 |
péntek | 14 | 107 | 4.79 |
szerda | 11 | 88 | 4.45 |
szombat | 3 | 70 | 5.00 |
vasárnap | 11 | 80 | 4.41 |
Total / Avg | 117 | 103 | 4.63 |
Az 5 legnépszerűbb blogposzt:
Blogposzt | All Social |
Két Tech Startup Naplója | 1023 |
37 Képzelt Elevator Pitch a Nagyoktól | 631 |
Rejtőzködés és 8 másik k**va zseniális stratégia | 337 |
Bearanyozva | 313 |
Most Ti Jöttök… | 299 |
3 grafikon a posztok népszerűségét illetően:
Az alábbi grafikonon látható, hogy a kedden és csütörtökön posztolt cikkek érik a legjobb eredményt közösségi média oldalon, míg a szombatiak a legrosszabbat.
Átlagosan a júliusban posztolt bejegyzések voltak a legnépszerűbbek, míg a június és december volt a legkevésbé népszerű. Itt persze lehet törekedni az egyszeri hatások kiszűrésére is, vagyis ha kivesszük a pár legnépszerűbb posztot, akkor nyilván módosulni fog a grafikonunk.
Ha időben előrehaladva elemezzük az adatokat, akkor azt látjuk, hogy az all social count emelkedik az idő előrehaladtával. Ez részben az oldal olvasottságának a növekedésével áll összhangban.
Az elemzési lehetőségek tárháza végtelen. Főleg akkor, hogyha van hozzáférésünk az adott blognak az analitikájához is. Az analitikának köszönhetően ugyanis a látogatottsági, forgalmi adatokat is be tudjuk építeni az adatbázisba. Ezek plusz információval szolgálhatnak arról, hogy egyes posztok miért népszerűbbek, kedveltebbek mint más bejegyzések. Eddig ismeretlen tendenciákat ismerhetünk fel, sőt olyan disztribúciós stratégiákra is rátalálhatunk, amelyek a mindennapi ügymenetben nem kerültek volna soha elő.
Érdekesség statisztikák a Startupdate blogról:
- A “jogi csavar” kategóriájú cikkek kapják a legkevesbb kommentet.
- A “nézz és láss” cikkek a legtöbbet.
- A cikkek általános 4 Twitter megosztást kapnak. Ez még magyar viszonylatban is kevés.
- A legmagasabb Twitter megosztás 29.
- Van 6 darab olyan poszt is, ami 0 darab Twitter megosztást kapott. Vagyis maga a szerző sem osztotta meg!
- A LinkedIn esetében szinte ugyanez a helyzet.
- A cikkek 62%-a egyáltalán nem került megosztásra LinkedIn-en.
- A Google+ esetében ez az arány 58%. Pedig SEO szempontból ez például egy különösen fontos elem.
- A szombat és vasárnap posztolt bejegyzések a legkevésbé kedveltek. 20-30%-al maradnak el az átlagtól és 70-80%-al a legnépszerűbb naptól a keddtől.
Ez az elemzési keret lehetőséget nyújt arra is, hogy versenytársakat, média ügynökségeket, blogokat is elemezzünk. És közben olyan dolgokat is találhatunk, amelyek elsőre nem triviálisak, vagy az adatok elsőre teljesen mást sugallnak. A minap például egy projekthez készítettem egy hasonló elemzést a Man Repeller nevű divatblogról. Arra voltam kíváncsi, hogy melyik blogger a legnépszerűbb, és melyik témák érdeklik a legjobban az embereket:
Ki a legnépszerűbb blogger ?
Blogger | Avg Social |
Sophie Milrom | 562 |
Leandra Medine | 522 |
Man Repeller Writers | 203 |
Mattie Kahn | 188 |
Amelia Diamond | 177 |
Esther Levy | 97 |
Emilia Petrarca | 55 |
Krista Lewis | 52 |
Ebből azt gondolhatnánk, hogy Sophie Milron a legnépszerűbb blogger. Ha viszont kategóriánként is tovább bontjuk az adatokat, akkor azt látjuk, hogy Leandra Medine két kategóriában is népszerűbb, mint Sophie.
Blogger | Category | Avg Social |
Leandra Medine | Shopping | 1143 |
Leandra Medine | Style | 834 |
Sophie Milrom | Beauty | 562 |
Egy részletes elemzés során olyan tendenciákra bukkanhatunk, amelyek elsőre rejtettek maradnak. Hogyha rendelkezünk mondjuk Google Analyticsből származó forgalmi adatokkal is, akkor találhatunk olyan részpiacokat, ahol bár az elérés nagyon alacsony, a konverzió mégis nagyon magas. Ilyenkor érdemes több erőforrást fordítani ezekre a csatornákra / content típusokra. Ez az elemzési keret ugyanígy hatékony lehet webshopok esetében is, vagy egy kis twist-el akár early adopterek életterének felkutatására is.
Az inbound marketing egy kis technikai hozzáértéssel és elemzési kézséggel sokkal messzebbre repíthet egy brandet / céget, mint heti 1-2 Facebook poszt.
A következő esettanulmányokban ezek kerülnek tárgyalásra.
Esettanulmány 2. rész
- Title, Headline & Tag Analysis
- WordPress Theme & Plugins
- Broken Link Check
Esettanulmány 2. része elérhető itt.
Összefoglaló
A fenti elemzés is mutatja, hogy még az inbound marketingen belül is számtalan olyan megoldás létezik, ami vagy nem triviális, vagy minimális technikai tudást igényel. Aki komolyan akarja venni ezt a területet, az nem tudja ezt megúszni. És a közeljövőben ez csak még inkább így lesz. Egyre nagyobb az igény és szükség az olyan marketingesekre, akik a tradicionális eszközökön és az elméleti tudáson túl is életképesek. Akik értenek a különböző technológiai megoldásokhoz, a statisztikához, a kódoláshoz, a szövegíráshoz, a SEO-hoz. Területtől és cégtől függően őket szokták distribution marketernek, inbound marketernek, full-stack marketernek vagy growth hackernek hívni. A kézségek fejlesztése persze önmagában még nem elég.
Az inbound marketing ugyanis nem csak komplex, de időigényes is. Jól példázza ezt, hogy bár a fenti elemzést elkészíteni se kevés idő, ebből fogyasztható tartalmat gyártani még több időt igényel. Az alábbi elemzés 1,5 nap alatt készült el. A blogposzt megírása pedig bruttó 3 hetet (nettó 4 napot) vett igénybe. Közép- és hosszú távon kell tehát gondolkodni annak, aki inbound marketingbe fog. Viszont megfelelő stratégia és megvalósítás mellett megéri.
Tetszett a cikk? Szeretnél még több ilyet olvasni?
Akkor iratkozz fel és küldünk egy emailt, ha hasonló cikket írunk!
Hozzászólások
Moderáld magad – vagy mi fogunk. :)
Na jó, nem fogunk, szóval csak ésszel!