Det mangler ikke på de som hevder at vi går fra mangel på data, hvor tradisjonell markedsanalyse har blitt brukt for å skaffe innsikt om marked og kunder, til en virkelighet med overflod av data hvor gode og kreative analytikere vil kunne svare på alle problemstillinger ved hjelp av «Big data». I følge «Big data»-fundamentalistene er tiden derfor snart ute for den tradisjonelle markedsanalysen som baserer seg på dybdeintervjuer, fokusgrupper og survey-data.
Kunder gir nemlig selskaper enorme mengder med data gjennom daglig interaksjon, gjennom besøk på hjemmesiden, når de ringer kundeservice eller rett og slett ved å benytte produkter. Samtaler med kundesenteret kan tas opp og gjøres om til tekst, analyseres, og gjøres til verdifull innsikt. Data, som tidligere var både en mangelvare og kostbar å fremskaffe, flyter nå rundt i en evig runddans mellom forbrukere og bedrifter. Det hevdes derfor at det å bruke tid og ressurser på å skaffe til veie data er meningsløst. Fokus må flyttes fra datainnsamling til anvendelse av data, og da er stikkordet analyse av «Big data».
Ny arbeidsmetodikk
Dessuten er hele arbeidsmetodikken hvor man definerer problemstillinger, innhenter data, analyser og presenterer, gått ut på dato. Beslutninger tas raskere enn tidligere, og gjerne lenge før et slikt analyseforløp er ferdigstilt. Beslutningstakere, på alle nivåer, har langt større nytte av «Big data»-tilnærmingen, hvor resultater gjerne fremkommer og anvendes i samtid.
I tillegg overses ofte viktige fenomener i tradisjonell markedsanalyse, rett og slett fordi utvalgene er for små. Viktige og komplekse mønstre kan ikke «graves i» fordi datagrunnlaget er for spinkelt. I en «Big-data-sammenheng» er selv store kvantitative markedsundersøkelser bare for småtteri å regne. Derfor ender analyser av survey-data gjerne i hypotesegenerering, i stedet for å gi svar på det man opprinnelig lurte på.
I andre tilfeller tar man beslutninger, men på svært usikkert grunnlag. Trackere er et godt eksempel på dette. Ofte gjennomføres det kun 200-500 intervjuer per uke, og da skal endringene være store før konklusjoner kan trekkes. Hvor ofte tolkes likevel ikke små endringer som betydelige, selv om endringene langt fra er signifikante? Meningsmålinger er et annet kjent eksempel, hvor de politiske partienes små fremganger eller tilbakeslag tolkes helt ut av proposjon.
Dessuten har «Big data»-analyser et svært viktig og verdifullt fortrinn. Resultater kan ofte kobles direkte til forbrukeren eller kunden. Der den tradisjonelle analysen for eksempel kan fortelle hva som kjennetegner de misfornøyde kundene, kan «Big data» gi svar på akkurat hvem av dine kunder som (sannsynligvis) er misfornøyd. Derfor er resultatene langt enklere å implementere, og kan i stor grad automatiseres, for eksempel i kundesystemene.
Mengden av data, samtidsanalyser og automatisering av resultater er det som kjennetegner «Big data», og på dette området har «Big data» klare fortrinn sammenliknet med tradisjonell markedsanalyse. Dette har «Big data»-fundamentalistene helt rett i.
Big Datas begrensninger
Likevel ser vi at noen av bedriftene som sitter på de største datamengdene, den best oppdaterte teknologien og fantastiske analytikere, ofte gjennomfører tradisjonelle spørreundersøkelser. De erkjenner at «Big data» har klare begrensninger, og langt fra kan besvare alle viktige problemstillinger.
La meg gi to eksempler.
Facebook sitter på enorme mengder data om brukernes demografi, gjøremål, verdier og preferanser. Hver kommentar, hvert bilde eller «like» registreres, analyseres og kobles til profiler. For Facebook er data ikke bare viktig beslutningsgrunnlag, det er nettopp innsikten om brukerne som er Facebooks største finansielle verdi. Facebook er selve kroneksemplet på et selskap som har alle muligheter til å forstå forbrukerne ved hjelp av «Big-data-analyser». Likevel gjennomfører Facebook tradisjonelle markedsundersøkelser, som for eksempel Facebooks brukerpanel.
Et annet eksempel er Google. Med mengder av data fra søk, e-post, karttjenester og nettleseren kan de danne seg et svært tydelig bilde av hver enkelt bruker. Med et slikt datatilfang skulle man ikke tro at det er behov for tradisjonelle markedsundersøkelser. Likevel gjennomfører Google fortløpende spørreundersøkelser rettet mot brukerne.
Årsaken til at selskaper som Facebook og Google har behov for å gjennomføre tradisjonelle markedsundersøkelser er at «Big data-analyser» har klare begrensninger. Det å ha tilgang på store mengder data betyr ikke at dataene gir svar på alle på alle spørsmålene som markedsanalytikeren trenger å besvare. Transkasjonsdata er for eksempel dårlig egnet til å kaste lys over forbrukernes motiver og ønsker, med andre ord – «hvorfor-dimensjonen». Google vet alt om hvilke banner-annonser som fungerer, og kan følge forbrukernes atferd på nettet, men de kan ikke ved hjelp av transaksjonsdata vite hvorfor en forbruker klikket på banneret og en annen ikke.
Den mest effektive metoden for å finne dette ut er fortsatt å spørre. Dette er ikke spesielt verken for Facebook eller for Google, men snarere noe alle som har jobbet en stund med«Big data» kjenner godt til, nemlig at analyseresultatene genererer nye spørsmål, hvor mange best besvares av tradisjonelle kundeundersøkelser.
Akkurat som radioen ikke ble borte da TV kom, så kommer heller ikke tradisjonell markedsanalyse til å forsvinne på grunn av «Big data». Tvert imot. «Big data»-revolusjonen fører til at bedrifter blir mer analysedrevet på alle områder. Den analytiske tilnærmingen blir mer fremtredende helt fra kundesenteret til toppledelsen. Arbeidsforholdene for markedsanalytikeren har aldri vært bedre, og trenden kommer til å fortsette i samme retning.
Nye kompetansekrav
Den analytiske tilnærmingen og analysekunnskapen blir altså stadig mer verdifull, men samtidig krever utviklingen at analytikerne utvider kompetansen. Fordi markedsanalytikeren er flink til å stille de rette spørsmålene og å analysere data er det er få eller ingen som er bedre egnet til å gjøre
nytte av «Big data», men dette krever bedre teknologisk forståelse enn hva som tidligere har vært tilstrekkelig. Analytikeren må forstå og beherske kunnskaper som man tidligere kun fant i bedriftenes teknologiavdelinger. Det vil ikke lenger være nok å kunne analysere data i SPSS, SAS eller liknende verktøy. Det kreves for eksempel at man virkelig forstår hvordan relasjonsdatabaser bygges opp og hvordan data kan flyter mellom ulike systemene.
Bruken av «Big data» kommer til å fortsette å vokse, men om det er en velsignelse eller forbannelse for den tradisjonelle analysebransjen gjenstår å se. Det eneste som er sikkert er at for de som er trent i å stille gode spørsmål og finne svar, går vi en spennende og lærerik fremtid i møte. For dumme data vil alltid trenge kloke analytikere for å gi mening.