I min senaste kolumn skrev jag om vetenskapliga problem. Å ena sidan finns det yttre problem, som att många väljer att bortse från vetenskapliga rön som inte stämmer överens med den egna uppfattningen. Detta gäller inte minst politiska beslutsfattare. Å andra sidan finns det interna vetenskapliga problem. Ett exempel är den så kallade replikationskrisen, det vill säga det faktum att många forskningsresultat inte kan upprepas. Orsaken är i bästa fall dålig forskningsmetodik, i värsta fall fusk.
Nu börjar man också höra röster som anser att dataanalytiken står inför liknande problem. Dataanalytiken håller på att drabbas av en trovärdighetskris. I och med att big data, artificiell intelligens och robotar blir allt vanligare i vardagen så ebbar en del av hajpen ut och man börjar få ett mera balanserat förhållande till datadrivna lösningar. Det sker en viss mognad, man bygger vidare på det som fungerar och avslutar det som inte ger önskat resultat.
Algoritmen underkänd. Till exempel har Folkpensionsanstalten (FPA) en chattbot som har fungerat bra på finska. Nu har den också fått lära sig svenska för att kunna betjäna fler kunder. Ett annat exempel är finska Yle som har använt en AI-algoritm för att moderera kommentarer på sin webbplats. Den här algoritmen fick däremot sparken. Den blev aldrig tillräckligt bra på att tolka nyanser i skriven text. Modereringen görs numera av en människa. I det här sammanhanget kan det vara bra att påminna om att AI ju inte egentligen är någon ny form av intelligens, utan snarare en återanvändning av mänskligt kunnande. FPA:s chattbot har tränats av en mänsklig ”botviskare” och Yles algoritm har tränat på kommentarer som en mänsklig moderator redan klassificerat.
Risk för svalnande intresse. Framöver borde man alltså låta människor göra det som människor är bra på och maskiner göra det som maskiner är bra på. Dessutom borde man säkert fokusera mer på samarbetet mellan människa och maskin. Nu finns en oro för att pendeln ska svänga alltför långt. I och med att vissa digitaliseringsprojekt inte har fungerat som förväntat finns en risk för att intresset svalnar. Projekt som är på god väg kanske läggs ner i förtid, och viljan att starta nya projekt kan avta. Det är ju dessutom inte helt lätt att avgöra vilka tillämpningar som inte fungerar för att människor gör dem bättre, och vilka som inte fungerar på grund av att man inte löst dem på ett tillräckligt smart sätt. De som nu talar om en trovärdighetskris menar dessutom att analytikerna själva bidrar till att skapa negativa attityder gentemot datadrivna lösningar.
Vad är det då som analytikerna gör fel? Ett problem tycks vara att de har en tendens att överdriva sin förmåga. Det är förstås naturligt att lyfta fram positiva visioner, men om man inte kan hålla vad man lovar så urholkar det trovärdigheten. Jag har själv suttit på ett möte där ett företag ville ha en algoritm för att utvärdera potentiella kunder. ”Inga problem”, sa analytikerna. ”Bara vi får data så är det lätt fixat”. Företaget hyste ändå vissa tvivel. De visste att deras data delvis bestod av sådant som kunderna själva uppgett, och då är det ju möjligt att de missförstått, förskönat eller till och med ljugit. ”Inga problem”, sa analytikerna igen. ”Vi kan också göra en modell som hittar dem som ljugit om sina uppgifter”.
Nåja, slutresultatet blev en algoritm som med nöd och näppe kunde skilja de allra bästa kunderna från de sämsta. Analytikerna hade egentligen inte gjort ett dåligt jobb, de gjorde vad som var möjligt med tillgängliga data. Men med tanke på förväntningarna så kändes det nog som ett misslyckande. Och om det upplevs som ett misslyckande är det lätt hänt att projektet läggs ner. Med en mera ödmjuk och realistisk ansats hade man lättare uppfattat resultaten som ett första försök som det är värt att bygga vidare på.
Fastnar i egna bubblor. Ett annat problem tycks vara bristen på kommunikation, eller snarare bristen på ett gemensamt språk mellan företagsledning/beslutsfattare och analytiker. En vd inom ett av USA:s största företag lär nyligen ha sagt att de nu har anställt hundratals analytiker, men han har ingen aning om vad de sysslar med. Här har förstås båda parterna misslyckats, men inte vill ju en yrkesgrupp ha en situation där ens uppdragsgivare inte vet vad man gör. Problemet är att de två grupperna tycks ha fastnat i sina egna bubblor.
Om beslutsfattarna inte förstår att analytikerna bidrar med något relevant så kommer de att börja ignorera dem. Analytikerna väljer å sin sida att koncentrera sig på saker som från ett beslutsfattarperspektiv ter sig som små och obetydliga detaljer. Vilken typ av modell ska användas, bör man använda R eller Python? Här skulle det säkert ge bättre resultat om man startade med något enkelt. Börja med enkla analyser som alla kan förstå och som visar att data kan skapa mervärde. Därifrån är det sedan lättare att gå vidare med mera avancerade lösningar. Nu finns det en tendens att genast börja med den nyaste, hetaste och mest komplicerade metoden, och det bidrar säkert till kommunikationssvårigheterna.
Till slut ett kort karriärtips. Det är nog inte helt dumt att skaffa en utbildning så att man kan fungera som tolk mellan beslutsfattare och analytiker. Det tycks behövas, och kan bli väldigt eftertraktat framöver.