Når teknologien ved mere om dine følelser end din egen familie - Emotional Data er et teknologisk felt i hastig udvikling
I 2022 vil dine personlige digitale devices vide mere om dine følelser end din familie og dine nærmeste venner gør. Sådan ser fremtiden ud, hvis man skal tro en vurdering fra Annette Zimmermann – Research Vice President hos Gartner – som er blevet citeret heftigt. Zimmermanns statement peger på en meget klar trend, hvor den globale tech-interesse for ‘emotions’ og ‘feelings’ er steget voldsomt de seneste år. Det handler især om mulighederne inden for automatiseret analyse af menneskelige følelser og hvordan det bliver mere og mere vigtigt for digitale forretningsmodeller, produkter og services. Overordnet kalder man feltet Emotional Data.
By 2022, your personal device will know more about your emotional state than your own family
Annette Zimmermann - Research VP, Gartner, 2018
Faktisk er emotional data og ‘emotion detection’ – dvs. algoritmisk genkendelse af menneskelige følelser – allerede del af vores hverdagsteknologier. Når vi f.eks. taler med en call-center medarbejder er der god chance for, at der kører en stemnings-analyserende algoritme i baggrunden, som opsamler data på hvor godt – eller skidt – samtalen forløber. Om vi lyder vrede eller om vi er engagerede i samtalen. Det gælder også de stemmestyrede assistenter der bor i vores telefoner og smart home-højttalere som f.eks. Siri, Alexa eller Google Assistant. En af måderne at gøre interaktionen med assistenterne bedre og mere intuitiv er netop at analysere bl.a. tonefald og hvilke positive og negative ord vi bruger hvornår. Og som et sidste hverdagseksempel på, at emotional data bliver koblet med IoT løsinger, forestiller man sig, at en kommende generation af smarte køleskabe vil foreslå ingredienser og madretter ud fra vores humør.
Data med følelser – et marked i stor vækst
Men det er kun begyndelsen. Hos flere af de store tech-rådgivningsfirmaer – som Gartner og Deloitte – spår man en kraftig vækst inden for feltet. En af de seneste rapporter vurderer at Emotion Detection og Recognition markedet vil se en gennemsnitlig årlig vækst på 32.7 % i perioden 2018-23. Allerede i 2020 anslår man en samlet markedsværdi på ca. 155 mia kr. Andre vurderinger lyder endda endnu højere. I de fleste af rapporterne fastslår man også, at de tre centrale teknologier er ansigtsgenkendelse (computer vision), stemme- og tale-analyse samt biosensorer (EEG, hjertefrekvens m.m.).
Indenfor marketing og branding har analysen af følelser og personlige oplevelser længe spillet en central rolle, når man skal kortlægge kunderejsen. Det nye er, at vi ser en meget stor indsats i forhold til at integrere traditionelle forståelser af kundeadfærd med automatiseret emotion-analyse. Metoderne er især baseret på machine- og deep learning, og man kan endnu ikke tale om egentlig kunstig intelligens. Men markedets signaler er klare: Det handler om “Emotion AI” og om at kunne indeksere kundens oplevelser real time ud fra positive og negative følelser. Og ikke mindst om at kunne bruge de data til at forudsige kundens mulige adfærd. Vi kender modellen i en mere simpel variant fra de recommendation-systemer, vi møder på online marketplaces som Amazon eller streamingtjenester som Netflix og Spotify. Men det er prediction baseret på koblingen af købs-data med emotional data, som man for alvor satser på nu.
Fra chatbots til biler
En af de specifikke udfordringer, man har haft fokus på har været at gøre chatbots i stand til at registrere brugernes humør og følelser. Det er nemlig helt afgørende for, om interaktionen og dialogen med en online eller fysisk robot bliver oplevet af brugeren som vellykket eller ej. Derfor ser vi også nu masser af forsøg med ‘emotionelle robotter’, der f.eks. er blevet sprogligt trænet på business-manualer og branche-sprog samtidig med, at man analyserer den enkelte kundes individuelle følelser. IPsofts virtuelle assistent Amelia er et godt eksempel på det. Idealet er at få disse løsninger udviklet, så de automatiserede online helpdesks og salgs-interaktioner fungerer lige så godt som traditionel face-to-face support og service.
Et andet konkret marked har været bilindustrien. Her har man i nogen tid arbejdet på at optimere sikkerheden på vejene ved at udstyre de mere avancerede modeller og dyrere klasser med systemer, der registrerer hvis føreren viser tegn på træthed eller er uopmærksom. De næste skridt drejer sig om også at kunne måle, hvis en bilist er ved nå op i det røde felt – altså at lave road-rage detection – så man undgår en potentielt farlig situation. Affectiva, der er en af de ledende leverandører indenfor emotion-analyse services og -software, satser netop på den del af branchen med deres Automotive AI-koncept. Her bruger man kamerabaseret ansigtsanalyse til at måle stemningen i bilen – ikke kun hos føreren men hos samtlige passagerer. Man kan forestille sig en lang række anvendelser af den type emotion data. F.eks. koblet til recommendation systemer, der giver hints om et godt tilbud på restauranten ved næste motorvejsafkørsel – eller automatiserede playlister justeret ud fra humøret i kabinen.
Når vi taler digital marketing og branding, er dine egne og din nabos følelser allerede på vej til at blive en primær handelsvare.
Fremtiden er følelser
Troen på, at emotional data kan give os nye indsigter i kunde- og brugeradfærd er ikke grebet ud af den blå luft. Man har forsket i feltet mellem menneskelige følelser og teknologi i snart 100 år. Det er dog først nu, at processorkraften og software-udviklingen for alvor viser potentialet. Næste generation af emotion-analyse teknologierne inkluderer f.eks. dedikeret hardware, som hos virksomheden EmoShape der har udviklet en emotion chip. Og tager man skridtet videre, vil vi måske se services, der – via biometrisk analyse – kan hjælpe os med at planlægge tid sammen med de venner, vi for alvor føler os godt tilpas sammen med.
Når vi taler digital marketing og branding, er dine egne og din nabos følelser altså allerede på vej til at blive en primær handelsvare. Og det står klart, at det kræver stor omtanke og konkrete regelsæt, når man beskæftiger sig med, ja, den type person-følsomme data. Derfor arbejder man også i øjeblikket ihærdigt på, at udfærdige etiske retningslinier og best practices inden for de enkelte brancher. Samtidig ser vi også en anden balance i udviklingen af feltet, fordi man i stadigt højere grad arbejder med de samme metoder indenfor velfærdsteknologi og såkaldt ‘assistive technologies’. Her handler det ikke først og fremmest om at sælge produkter til forbrugere, men at hjælpe og assistere borgere.
Der er ingen tvivl om, at vi vil komme til at se mange flere investeringer og eksperimenter med emotional data produkter og services i den allernærmeste fremtid.
Her er et par af vores bud på, hvor udviklingen er på vej hen:
- Mere fokus på branchespecifikke applikationer
- Integreringen med AI bliver helt central
- Teknologierne vil i høj grad være baseret på ny forskning i følelser (der sker meget inden for grundforskningen lige nu)
- Marketing og branding-industrien vil fortsat være en af de største drivere
- Vi vil se en stigende brug af emotional data indenfor sundhedssektoren og i velfærdsteknologier generelt
Hvis det ovenstående gør, at du enten føler dig vildt begejstret eller voldsomt nervøs, så kontakt mig endelig for mere viden og information om emnet på thomas@ilab.dk. Vi samarbejder både med industrien og førende forskere indenfor feltet. Og alle er enige om, at den emotionelle data-rejse først lige er begyndt – uanset om vi taler nye forretningsmodeller, produktudvikling og de mere langsigtede fremtidsperspektiver.
I slutningen af oktober holder jeg også en briefing om den teknologiske udvikling inden for stemmestyring, hvor jeg også kommer ind på fænomenet koblet med følelser. Læs mere og tilmeld dig i Aarhus eller i København.