Transparens? Forklaring? Tillid!

Jakob Fredslund
Ansvarlig AI
Published in
5 min readMay 1, 2020

Hvad har vi brug for fra de nye teknologier?

Udviklingen inden for kunstig intelligens, maskinlæring og beslutningsstøttesystemer er i de seneste år gået rigtig stærkt. Algoritmerne og computerne er blevet smartere og hurtigere, og de kan løse større problemer end nogensinde før.

Et centralt element i mange af disse nye algoritmiske teknologier er imidlertid, at de ikke giver eksakte svar. De regner i en slags sandsynligheder: ”Jeg er 67% sikker på, at svaret er ja”. Programmøren kan sagtens lægge en tærskelværdi ind og på den måde tvinge algoritmen til at give et tilsyneladende eksakt svar — hvis sandsynligheden er over 85%, så svar ”ja”, ellers svar ”nej” — men der er grundlæggende tale om mønstergenkendelse, hvor algoritmen kan håndtere og regne på, at data ligner hinanden i en eller anden grad, frem for om de er ens eller ej.

Hvis jeg går til familielægen, og lægen siger ”du er smittet med coronavirus”, så stoler jeg på det og vil følge hendes anvisninger. Jeg vurderer, at diagnosen passer med de symptomer, jeg selv har observeret, men jeg går ikke ned og køber laboratorieudstyr og poder min tunge og laver en test selv.

Hvis jeg går til min sædvanlige mekaniker med min bil, og mekanikeren siger ”bremserne skal skiftes”, så stoler jeg på det. Jeg er sandsynligvis kørt derhen, fordi jeg har lagt mærke til, at bilen ikke bremser helt godt længere, så jeg googler ikke billeder af defekte bremseskiver på en Renault årgang 2010 og kravler ind under bilen med en lommelygte.

Foto: NeONBRAND / Unsplash

Jeg stoler på disse fagpersoner. Jeg stoler på, at de ved, hvad de snakker om. Og det gør jeg, fordi jeg gennem måske lang tid har opbygget tillid til dem. Mine interaktioner med dem har aldrig givet mig anledning til at tvivle på deres anbefalinger.

Den første gang, min mekaniker vurderede, at en meget bekostelig reparation var nødvendig, var jeg lidt skeptisk og spurgte ind til, hvorfor han nu mente, det var nødvendigt. Hvad byggede han sin vurdering på? Det forklarede han mig, og jeg kunne godt forstå ham. Han evnede nemlig at forklare mig det i mit sprog og ikke i sit eget fagsprog.

Hvis vi skal kunne bruge et reelt godt råd eller en handlingsanvisning til noget, så skal vi stole på afsenderen. Vi har derfor i særdeleshed brug for at føle tillid til alle autoriteter i vores liv. Det er således afgørende, at der etableres tillid til alle de teknologiske systemer, som oftere og oftere støtter beslutningstagere hos fx myndigheder: Både brugerne — sagsbehandlerne — og borgerne skal have denne tillid.

De nye muligheder er her nu

Kombinationen af større computerkraft og nye, smartere varianter af kunstig intelligens — som fx deep learning — er meget kraftfuld. Det betyder, at der er masser af tidskrævende, datatunge, manuelle processer, der kan digitaliseres og effektiviseres. Ikke alene datasøgninger men også datavurderinger, som man kunne kalde det: Computeren kan i dag i mange sammenhænge hjælpe med screeninger af datamateriale, som man normalt skal være faguddannet for at kunne udføre. Fx så den ikke kun laver simpel søgning efter ord i en tekst, men også kan lede efter emnet eller ligefrem meningen i teksten — altså noget mere kvalitativt. Måske kan computeren trawle 50.000 siders sagsakter igennem og identificere, hvilke tidligere retssager der er relevante for den aktuelle sag, juristen sidder med.

Computeren vil i langt de fleste tilfælde endnu ikke skulle tage beslutninger baseret på sin egen screening; Resultatet af sådanne screeninger vil i stedet indgå i det beslutningsgrundlag, som den menneskelige, beslutningstagende domæneekspert træffer sin afgørelse ud fra.

Det kunne være en skattemedarbejder, som får hjælp fra computeren til at vurdere, om en ansøgt momsrefusion er rimelig.

Det kunne være en læge, som skal vurdere en patients symptombillede, og som får hjælp fra en computer til informationssøgning og sammenligning af symptomer med et gigantisk datamateriale fra forskningslitteraturen.

Eller det kunne være en sagsbehandler, som skal vurdere, om et barn skal tvangsfjernes, og som får hjælp fra en computer til at få øje på betænkelige forhold i familiens historik.

Jo mere anvendelige og udbredte disse teknologier bliver, jo tættere på os alle sammen kommer de. Og jo større indflydelse får de sandsynligvis også på afgørelser, som får stor betydning for vores liv og dagligdag.

Hvordan?

Der er inden for AI-udviklingen et gryende fokus på XAI, explainable artificial intelligence. Altså ”forklarlig” kunstig intelligens. Det er noget vi bl.a. arbejder med på Alexandra Instituttet. Vi har fx netop arbejdet med læger, som får computerbaseret hjælp til informationssøgning og symptomsammenligning; det skriver vi mere om i andre blogindlæg).

Mange taler om transparens som løsningen på teknologiernes uigennemskuelighed, men som vi tidligere har argumenteret for (https://www.altinget.dk/digital/artikel/vinder-af-altinget-og-dansk-its-debatkonkurrence-transparens-sikrer-ikke-tillid-til-myndigheders-beslutninger), så er transparens ikke det endegyldige svar. Som sociologen Anthony Giddens fastslog som konsekvens af det senmoderne samfund for tredive år siden: At et kompliceret system er transparent, så man kan kigge ned under motorhjelmen, betyder ikke, at du og jeg kan forstå, hvordan det virker. Hvis nogen kunne have vist en gennemsnitsborger i år 1750, hvordan en jumbojet ser ud indeni, så havde vedkommende næppe uden yderligere betryggelse haft lyst til at sætte sig op i den for at flyve over Atlanten.

Foto: Ben Neale / Unsplash

Der skal noget andet til for at skabe tillid hos ikke-teknikere, som langt de fleste af os jo er. Og der er mindst to måder, vi opbygger tillid på: 1) Vi får en forklaring, vi selv kan forstå, eller 2) Vi bliver overbevist af en person, vi stoler på.

I vores mange teknologiprojekter ser vi tydeligt, at der i forskellige domæner er forskellige måder, man bedst etablerer tillid til et beslutningsstøttesystem på. I nogle situationer vil det være nok, at brugeren ved, at systemet er testet og godkendt af en myndighed eller instans, som brugeren regner for troværdig. I andre har brugeren behov for selv at få en forklaring — fx fordi vedkommende efter anmodning skal kunne give en sådan forklaring på sin egen, endelige vurdering (dette er særligt tilfældet i sundhedssektoren, viser vores projekt). Det er således nødvendigt, at man ikke kun har transparens men også den ”forklarlighed”, som er essensen i XAI. I dét begreb ligger netop, at der bygges et formidlende lag oven på den rene transparens.

Det betyder ikke, at brugere af den slags systemer altid vil have behov for faktisk at få disse forklaringer. Når først tilliden er etableret, vil vi kunne spare tid og være trygge ved at uddelegere en del af vores faglige dømmekraft til en computer uden at tjekke yderligere op på dens vurdering. Men det er mennesket — brugeren — der skal afgøre, hvornår tilliden er etableret; ikke maskinen eller softwareudviklerne. Derfor skal vi kunne bede om forklaringer, vi kan forstå, så længe vi har behov for det, og vi skal i øvrigt opleve, at maskinen hver gang giver en vurdering, vi som ansvarshavende mennesker kan stå inde for, når først vi har fået forklaringen og kender maskinens forudsætninger.

I Alexandra Instituttets arbejde med XAI er dét vores perspektiv. Og vi mener, at det er en vigtig opgave for alle os aktører i den teknologiske sfære at arbejde med at forstå brugernes verdensbillede, så vi kan tilpasse vores it-løsninger til brugerne og ikke forvente det omvendte.

April 2020

Jakob Fredslund og Marie Rørdam Fenger

--

--