Hvordan forholder EU sig til ansvarlig kunstig intelligens?

Lisa Lorentzen
Ansvarlig AI
Published in
7 min readSep 16, 2020

På Alexandra Instituttet er vi optagede af, hvordan vi udvikler kunstig intelligens, så det er ansvarligt og gennemsigtigt — men hvordan beskæftiger de sig med det på det politiske plan i EU? På en og samme tid kan lovgivning om ansvarlig kunstig intelligens skabe muligheder og stå i vejen, afhængigt af hvordan den udformes. Vi har givet ordet til Karen Melchior i dette blogindlæg, der, som medlem af Europa-Parlamentet, har fingrene helt nede i den digitale dagsorden.

Karen Melchior har været medlem af Europa-Parlamentet for Radikale Venstre i et år nu, hvor hun med egne ord har sat sig på ’så mange pladser inden for den digitale dagsorden, som hun kunne nå’ — blandt andet er hun den liberale rapportør på en parlamentsrapport om kunstig intelligens, har fået en af de liberale pladser i specialudvalget om kunstig intelligens, og er nu den eneste dansker i panelet for fremtiden for forskning og teknologi (STOA). Så hvem er bedre til at give en status på, hvor arbejdet med ansvarlig kunstig intelligens er i EU — og hvor det er på vej hen…

Man kan ikke bede Karen Melchior om at præsentere sig selv, uden at samtalen hurtigt drejer ind på det, der har ligget hende på sinde i en årrække, nemlig hvordan digitalisering påvirker vores demokrati og samfund. Og det er der ikke noget at sige til, for der er nok af spørgsmål at forholde sig til i EU i forhold til kunstig intelligens (AI) — som, hvilke krav om åbenhed skal vi stille til algoritmerne i AI? Hvis et produkt anvender AI, hvem skal så stå til ansvar for de beslutninger, der træffes? Skal vi skelne mellem høj- og lavrisiko AI-produkter? Det er blot nogle af problemstillingerne.

Men inden vi når til problemstillingerne, slår Karen Melchior én ting fast — vi udnytter ikke mulighederne med AI godt nok i dag.

Kunstig intelligens skal afmystificeres

”Der er gået for meget hype i det, når det kommer til kunstig intelligens, og det giver udslag i, at vi på samme tid oplever, at nogle mener, at det kan løse det hele, og andre, at det er så farligt, at man ikke engang vil røre ved det. Mange stejler eksempelvis når det kommer til at bruge AI, når det handler om medicin og sundhed, men vi har ikke nødvendigvis at gøre med personfølsomme data, bare fordi vi har med sundhed at gøre”.

For at komme op fra de to respektive grøfter skal der ske et skifte i, hvordan vi ser på AI, ifølge Karen.

”Vi skal have afmystificeret kunstig intelligens. Fordi det er blevet et hype-begreb, er der også mange, der bruger det om deres produkt, for at få det til at lyde mere sexet, selvom de faktisk ikke bruger AI. Men vi er nødt til at fokusere mindre på ordet og mere på det, det egentlig handler om, og hvordan man bruger det”.

Og det er helt centralt for Karen, at det vi egentlig bør fokusere på, når vi taler om AI, er dataene, vi anvender.

”AI kører på data — men hvilken data? Det er brugen af data, der er relevant, vi skal anvende den rigtige data til de forskellige udfordringer, vi løser med AI. Det er ikke tilfældigt, at strategien for henholdsvis AI og data blev lanceret samtidig i EU”.

Som eksempel på at vores brug af data altid bør kvalitetssikres, fremhæver hun forskningsarbejdet, som Caroline Criado Perez har udført i forbindelse med sin bog ’Invisible Women: Data Bias in a World Designed for Men’. Her kaster Caroline lys på de mange tilfælde i vores samfund, hvor mænd har været standarden, man har udviklet til — eksempelvis opdager man ofte for sent, at kvinder har hjerteproblemer, fordi vi primært kender de symptomer, som mænd oplever i forbindelse med hjerteproblemer (forstyrrelser i venstre arm og en trykken for brystet), mens kvinder typisk oplever træthed og en følelse af at være forstoppet, som man ikke genkender som faresignaler. Og på samme måde er crash test dummies oftest udformet som mænd, hvilket sætter kvinder i højere risiko for at komme til skade ved biluheld, fordi bilernes sikkerhedsudstyr er tilpasset til at beskytte kroppe med mandlige dimensioner — for blot at nævne to af eksemplerne. Her bliver det tydeligt, at datagrundlaget er utilstrækkeligt, og vi skal være meget opmærksomme på, at vi ikke udvikler kunstig intelligens på samme ulige grundlag, mener Karen. Også fordi at det kan blive en selvopfyldende profeti.

”Hvis vi har en ulighed i systemet, som fejlagtigt viser, at rødhårede begår mere kriminalitet, så vil flere rødhårede blive undersøgt af politiet. Alt andet lige, så vil flere kriminelle rødhårede så blive fundet, men ikke nødvendigvis fordi at de er mere kriminelle. Ser det imidlertid sådan ud, vil nogle se det som, at antagelsen er bekræftet og på falsk grundlag beskylde rødhårede for at være mere kriminelle og undersøge endnu flere rødhårede. Og så har vi en ond cirkel. Sådanne fejlslutninger skal vi undgå”.

Data skal kunne fremvises

Men hvordan sikrer vi, at det er gode data, der bliver brugt til AI?

”Der skal være en åbenhed og transparens omkring data og algoritmer. Ikke sådan forstået, at alle skal have adgang til alles data, men eksempelvis en europæisk eller national myndighed skal have adgang, og så kan man forestille sig, at der ofte vil kunne laves en privilegeret adgang for forskere til datagrundlaget.”

Det er forslag, der arbejdes på i EU netop nu. Europa-Kommisionen kommer med et lovforslag til efteråret, som så skal behandles og stemmes om, samtidig med at medlemslandene ser på det. Men i mellemtiden udgives ’initiativ-rapporter’ fra Europa-Parlamentet, som er deres måde at udtrykke holdninger på, og her er 3–4 om AI og 3 om regulering af platforme og åbenhed om algoritmer og datagrundlag ved at blive udarbejdet, som vil blive behandlet i respektive udvalg.

”Lovgivningen skal sikre, at vi har et godt indre marked, når det kommer til AI. Vi skal ikke have 27 forskellige udgaver af loven — vi skal have én model, der kan bruges i hele Europa, så vi kan være sikre på, at standarderne er ens, og så vi nemt kan udveksle teknologier. Men lovgivningen inden for det digitale område skal også være en rollemodel for kvalificering af AI i verden. Det kommer ikke, uden at vi investerer flere penge til forskning i AI i EU, og gør det attraktivt for AI-virksomheder at være i EU, samt at vi beskytter virksomhederne mod statsfinansierede overtagelser fra eksempelvis Kina og USA”

Ansvarlig AI skal være en konkurrencefordel

Ofte hører man diskussioner om, hvorvidt ansvarlig AI, der alt andet lige vil blive dyrere at udvikle, fordi den skal leve op til andre krav, kan blive konkurrencedygtig med AI udviklet i Kina og USA, hvor de ikke har det samme fokus på ansvarlighed i forhold til AI. Men det er i princippet ikke til diskussion, ifølge Karen.

”Ansvarlig kunstig intelligens SKAL være en konkurrencefordel, for uden ansvarligheden kan vi ikke have tillid til teknologierne. Vi skal ikke have et overvågningssamfund, bare fordi vi gerne vil bruge AI”.

Og den holdning ved Karen, at hun ikke står alene med. I EU er holdningen generelt, at vi skal være stærke på en ansvarlig digitalisering — men det er implementeringen, der diskuteres. For skal man kun regulere højrisiko AI-produkter, og hvor går grænsen så mellem høj- og lavrisiko AI, skal man regulere helt ens for alle EU-lande, og hvis ikke, hvor store regionale forskelle kan vi så acceptere, hvor langt ned i detaljen skal man gå, og hvis man skal prioritere, hvad vægter så højest? Det er blandt andet de spørgsmål, Karen forholder sig til i sit arbejde med ansvarlig AI.

”Vi er nødt til at have tænkt de risici igennem, som et produkt kan medføre, før vi bare bruser frem. Respekten for vores data er en fundamental rettighed, på linje med vores andre rettigheder, og det skal vi ikke give køb på eller bruge som betalingsmiddel. Men vi skal afveje beskyttelsen af personlige oplysninger, brugere og mindreårige op imod en simpel lovgivning, som er så nem som muligt for virksomhederne at anvende i forhold til at udvikle deres produkter. For virksomhederne skal have klare regler, de kan forholde sig til. De fleste virksomheder, især inden for eksempelvis det medicinske område, er jo vant til at forholde sig til mange krav, og har det fint med krav — så længe de er klare. Problemet er, hvis kravene er omskiftelige eller man først får dem oplyst for sent, for det kan blive enormt dyrt for virksomhederne. Så vi arbejder på at reglerne fra starten bliver klare at læse og følge. Kravene til AI vil også lægge grunden for den ansvarlighed, der som minimum vil blive krævet af AI-produkter — men det må man meget gerne tage som et udgangspunkt, og være endnu mere ansvarlig omkring sin anvendelse af AI.”

Karen Melchior, vi har givet ordet i dette blogindlæg, hører gerne fra jer, der arbejder med ansvarlig kunstig intelligens, hvis I har tanker omkring lovgivningen inden for området i EU.

Hos Alexandra Instituttet er vi også af den opfattelse, at ansvarlig kunstig intelligens kommer til at være en konkurrencefordel, og at man ikke behøver vente på lovgivningen for at udvikle kunstig intelligens på ansvarlig vis. Tag fat i os, hvis du vil høre om vores erfaringer med at udvikle ansvarlig kunstig intelligens.

--

--