Körmendi György: A nagy adat és a kis ember

2012. dec 20.



A trend egyértelmű. Egyre több és többféle adatot gyűjtünk egyre gyorsuló ütemben, ez különben a Big Data egyik definíciója. Bár az ember ennyi év után kicsit közömbös az ilyen divatszavakkal, de ha már használjuk, akkor ennek kapcsán legalább tudunk beszélni arról az alapvető, komplex folyamatról, mely révén az adatok elemzése felforgatja a világunkat.

Az adatok gyűjtése, felhalmozása, tárolása, könnyen elérhetővé tétele fokozza korunk egzisztenciális problémáját: Te jó ég, mit kezdünk most velük? Relatíve egyszerű ugyanis heti riportokat gyártani, különböző bontásokban vizsgálni mondjuk értékesítési adatokat vagy ügyfélszokásokat. Csakhogy ezt már megtettük tegnap is, egyes helyeken már tegnapelőtt, sőt még korábban. Ezek alapján képesek vagyunk jól-rosszul dönteni, mondjuk egy új termék tervezése vagy bevezetésének célcsoportjai kapcsán. Mégis érezzük, hogy ez valahogy nem az igazi. Mit kezdünk most még több adattal? Mit kezdünk az egyes elszigetelt eredményeinkkel, egy ügyfél-szegmentációval vagy egy lemorzsolódási modellel?

Válasz persze már régóta van: az egységes ügyfélkép, amelyben vásárlóink adataira alapozott modelljeink összefüggő, egységes metamodellé válnak a kockázatoktól kezdve az affinitási viselkedésén és az ügyfélpotenciálon át a lojalitási jellemzőkig. Tulajdonképpen a Big Data lehetőséget ad arra, hogy a marketingkommunikációban megtestesülő tipikus ügyfelek helyett akár minden egyes ügyfélről személyes képünk legyen.

De térjünk csak vissza arra a csendes forradalomra, aminek a révén hol lassabban, hol gyorsabban megváltozik az egész világ, ami körbevesz bennünket. Üvegzseb és Wikipédia, kgfb-kampány és online repülőjegy-vásárlás, jól és néha még rosszabbul működő példák, de hol volt akár a gondolatuk is 10 vagy 15 évvel ezelőtt? Minapi hír szerint az időjárás előrejelzést „monopolizálnák”. Hol? Több száz (vagy ezer) amatőr mérőállomás ontja az adatokat, és több különböző műhold vagy radarállomás adatai is szabadon elérhetőek. Dőlnek a paradigmák, hol maguktól, hol elsöprik őket.

Nem olyan nagy dolog

Adatokat összegyűjteni, tárolni, lekérdezni azonban viszonylag egyszerű feladat. Legalábbis ahhoz képest, ahogy ezeket feldolgozni, elemezni, értelmezni lehet. Ugye ismerős, hogy amikor egy Mars-járó szonda sikeresen befejezi küldetését, akkor az űrhivatal szóvivője megjegyzi: minden szuper, nagyon jól sikerült, most pedig az adatok elemzése következik, ami évekre munkát ad a kutatóknak. Feltártuk a humán genomot, de csak apró részeit értjük, és még darabig el is fog tartani a megértése. Megcsíptük a Higgs-bozont, de egyelőre még nincs meg az 5 szigmás biztonsági hibahatár, most még számolunk pár hónapot. Szóval általában nem az adatok összeguberálása vagy tárolása, kezelése a legidőigényesebb, hanem az értelmezése, elemzése. És arra nincsenek sablonok, ha valami újat kell feltárni, megérteni.

Adattudósok

Ha a klasszikus hasonlatot vesszük, amely szerint az adat a 3. évezred olaja, akkor engem nem a feltárásában, kitermelésében vagy tárolásában rejlő izgalmak érdekelnek, hanem sokkal inkább a finomításban, majd a komplex, pl. műanyag termékek előállításában rejlő lehetőségek, illetve ezek gyakorlati alkalmazásai, sőt értékesítési lehetőségei, termékláncai.

Tehát nekem a Big Data analitikai vonatkozásai érdekesek igazán. Ugyanúgy, ahogy másfél évtizeddel ezelőtt, a nagy adattárházláz idején, az igazán izgalmas kérdés számomra nem az, hogy hogyan lehet ilyen nagy struktúrákat létrehozni, milyen technikai nehézségeket és hogyan kell leküzdeni ahhoz, hogy a sok adatot összeszedjük, tároljuk vagy elemi vizsgálatokat végezzünk rajta. Sokkal inkább foglalkoztat az, hogy mit kezdhetünk az adatokkal, mitől jobb több adat, hogyan csinálhatunk értéket belőle?

Lehet érvelni amellett, hogy jelentősen megváltozott a helyzet a hatalmas mennyiségű adat miatt, én azonban inkább a folytonosságot látom, az adat egyre gyűlik, a hardverek egyre gyorsabbak, nagyobb kapacitásúak. Hogy változnak-e a szoftverek, változik-e az adatelemzési módszertan? Szerintem jóval lassabban. Tizenévvel ezelőtt is nagyon hasonló eszközökkel elemeztük a tized, század akkora, de már néha akkor is milliós adattáblákat. Ugyanakkor azt is gondolom, hogy a klasszikus alkalmazási területeken (CRM, kockázatkezelés stb.) elértük Magyarország méreteit. Itt a legnagyobb cégeknek is csak néhány millió ügyfele van, ezt mondjuk kínai mobilszolgáltatók adatai nem meglepő módon 2 nagyságrenddel haladják meg. Ez azt is jelenti, hogy magyar viszonylatban, az SPSS eszközökkel nemigen kerülünk olyan helyzetbe átlagos irodai munkaállomásokon sem, ahol komolyan kéne foglalkozni teljesítményproblémákkal. Természetesen minden szoftvert, hardvert „ki lehet akasztani”, de józan megfontolásokkal ezek a helyzetek egyszerűen elkerülhetők.

Hagyományos vállalatok problémája

Az bizonyos, hogy például a klasszikus CRM adatkörök nem bővülnek exponenciálisan. Idősoros adatok gyűlnek, de 5-10 évnél régebbi adatok csak igen speciális esetekben relevánsak. Aztán az adatok sűrűségének is van felső korlátja, hiszen hívásrekord vagy banki tranzakció szinten túl már nemigen van hova részletezni az adatokat. Persze kérdés az, hogy a mai magyar gyakorlatban a meglévő adatokat elég alaposan és mélyen elemzik-e? Közvetve vagy közvetlenül ismerve a magyar alkalmazóknál végzett elemzési tevékenységet, rövid válaszom az, hogy nem. Néhány kiemelkedő alkalmazótól eltekintve az adatbányászatot, prediktív analitikát végző cégek (nagyobb telekommunikációs cégek, pénzintézetek, közüzemi szolgáltatók, számos közintézmény, hivatal) túlnyomó többsége csak a töredékét használja ki az adataikban, hardvereikben, szoftvereikben rejlő lehetőségeknek. Általában nem is a szükséges elemzési szakértelem hiánya okozza a problémát.

A Big vagy kevésbé Big Data kihasználatlanságának közvetlen oka az, hogy az elemzés, az adatbányászati modellek igazi haszna akkor jelentkezik, ha azok az egyes vállalati folyamatokba (értékesítés, marketing stb.) mélyen beágyazottan, általában automatizáltan, üzemszerűen működnek. Súlya, felelőssége, következménye van annak, ha mondjuk egy lemorzsolódási modell nem teljesít megfelelően. Ugyanakkor a mikroszintű döntéseket is „rábízzuk” a gépre, így az értékesítési folyamat egyes munkatársai nem bírálják felül a modellek „next best offer” ajánlatát, mert mindenki, legfőképp a menedzsment érti, hogy az egy komplex módon optimalizált modell eredménye. Természetesen ilyen jól teljesítő modellek csak hosszas érési folyamat révén keletkezhetnek, amelynek viszont fontos jellemzője a modellek teljesítményének a folyamatos visszamérésén alapuló visszacsatolás, ez alapján a modellek finomítása, újratanítása.

A komplex ügyfélkép

Mitől lesz a jövő vállalata más, mint a múlté? A legnagyobb különbség egyetlen fogalom köré szerveződik: a rengeteg adat köré. A technika, a mobileszközök új lehetőségei tulajdonképpen a digitális lábnyomban képződnek le. A kütyük a hóesés, de az eddig –szinte – láthatatlan ügyfél nyomai a hóban

A jövőkép világos, a jövő sikeres vállalata intelligens. Döntéseket hoz, alkalmazkodik, adaptál, optimalizál. Mindezt jórészt emberi beavatkozás nélkül, automatizmusok révén. Jó kérdés, hogy mi lesz ebben az ember szerepe, de az biztos, hogy kevesebb, mint ma. Nagy kérdés, hogy mi marad mondjuk 30-40 év múlva is emberi kompetencia egy szolgáltató vállalat vagy egy retail üzletlánc működésében? A könyvelés, a logisztika, a szolgáltatások zöme túlnyomó részben vagy teljesen automatizálható.

Vannak olyan cégek, amik nagy részben már ma is megfelelnek ennek a kritériumnak, az ő működési területük az internet. Itt természetesen jóval egyszerűbb működni, így máris rengeteg automatizált döntéshozatali folyamat jellemzi ezeket a pionírokat. A hagyományos vállalatoknál egyfelől a folyamatok újraszabása is nehézkesebb, másrészt nehezebb az eddig ember által felügyelt döntéseket a gépekre bízni. Hány olyan esetet ismerünk, amikor egy ügyfélszintű optimalizálási számítást végző kampánymenedzsment-szoftver eredménye alapján mondjuk az egyik megszokott direkt kampányt nem indította el a cég, mert nem éri meg? Vagy hány olyat, amikor „felsőbb” szempontok szerint mégiscsak megkap egy hitelt egy olyan ügyfél, akit a bírálórendszer kockázatosnak minősített? Nem szívesen delegáljuk a döntéseinket gépekre, függetlenül attól, mennyivel hatékonyabban, gyorsabban, kiszámíthatóbban és statisztikailag jobban dönt a gép. Viszont így nem is érvényesülhet igazán a prediktív analitika ereje.

Vár itt ránk majd egy sor erkölcsi, etikai probléma, de az adatelemzésre épülő (szép?) új világ folyamatosan épül. Könnyen lehet, hogy évek múlva majd nem a Big Data kifejezést használjuk, de így is hasonló dilemmák, kihívások várnak ránk talán más kifejezések köntösében. Őszintén ajánlom a Big Data mellékletünkben szereplő cikkeket a fentiek továbbgondolására!

Körmendi György

Körmendi György 2005-ben alapította társaival az SPSS termékek magyarországi képviseletét – amely immár Clementine Consulting néven működik -, melynek 2007 óta ügyvezetője. 1996-ban az Eötvös Lóránd Tudományegyetemen szerzett fizikus diplomát, majd 1998 óta foglalkozik adatbányászattal és tanácsadással. Munkatársaival több magyar biztosítónál (Aegon, Groupama, Generali) támogatta és támogatja az ott zajló adatelemzési tevékenységet, analitikus CRM-et.






Posted by NRC Marketingkutató in : Egyéb,

Kapcsolat

NRC Kft. 1034 Budapest, Kenyeres utca 28. www.nrc.hu

piackutatas@nrc.hu
Facebook Twitter

Küldjön üzenetet nekünk!