Data Driven Decision-making: de agency van algoritmen als nieuwe ethische realiteit

Hebben algoritmen een moraliteitsbesef? In een wereld waar data als grondstof en valuta fungeert, roept deze ethische kwestie veel meer vragen op dan dat er antwoorden zijn.

Algoritmen ontpoppen zich als de digitale ‘gatekeepers’ van de data society. Dit werd al eens aan de kaak gesteld door Eli Pariser in zijn boek The Filter Bubble waarin hij de werking van algoritmen in nieuwsvergaring beschrijft. Door de toegenomen personalisatie in journalistiek, door diensten als Google News, lezen we steeds meer nieuws dat ons bevalt, onze denkbeelden bevestigt en onze kijk op de wereld verkleint. We leven op den duur in onze gepersonaliseerde bubble waar weinig tot geen ruimte is voor denkbeelden die haaks staan op wat we voor waarheid houden.

De ‘auto complete’ functionaliteit van veel zoekmachines is een ander voorbeeld. Typ een zoekterm in bij Google, Bing of YouTube en een algoritme maakt de zoekterm af voordat je klaar bent met typen. Ook hier fungeert het algoritme als een twijfelachtige gatekeeper. George Carlin, een overleden Amerikaanse komiek, was onder meer bekend van zijn Seven words you can never say on television-act; shit, piss, fuck, cunt, cocksucker, motherfucker en tits. Typ deze woorden maar eens in bij Google en zie zelf hoeveel woorden het algoritme ‘auto-complete’. In mijn geval geen één. Tot voor kort was ook het woord ‘biseksueel’ een woord dat niet werd afgemaakt door het algoritme. Pas na vele klachten staat Google bij sommige query’s het afmaken van dit woord toe. Hacker magazine 2600 publiceerde zelfs een blacklist met 400 woorden die hetzelfde lot zijn toebedeeld.

Het algoritme bepaalt dus dat deze zoektermen niet moreel verantwoord zijn. De problematiek zit niet alleen in de criteria waarmee deze algoritmen keuzes maken, het zit ook in de beïnvloeding ervan. We weten allemaal hoe makkelijk de Google zoekresultaten te beïnvloeden zijn: Search Engine Optimalization is een marketing tak op zich. Wat is er precies objectief aan de waarheid die algoritmen hanteren?

Met de data explosie en de toenemende agency van algoritmen is het niet langer een optie voor ontwikkelaars om vrijblijvend na te denken over de ethiek van code. Kijken we naar de toekomst dan zal de urgentie van deze thematiek zich namelijk nog prominenter manifesteren. Google Driverless Cars, de auto’s die Google zonder menselijke bestuurder al jaren foutloos door Californië laat rijden (vanaf dit jaar ook autonome auto’s op de Nederlandse wegen), zijn bij uitstek het voorbeeld van de actualiteit van machinale moraliteit. In een essay in The New Yorker stelt Gary Marcus, Professor of Psychology aan de Universiteit van New York, zich het volgende dilemma voor: stel, je rijdt in een autonome auto van Google met een kilometer of 50 per uur over een brug. Op hetzelfde moment raakt een schoolbus met 40 kinderen aan boord op diezelfde brug in de problemen en kruist deze voor jouw auto langs. Moet de auto uitwijken voor de bus en het leven van zijn passagier mogelijk in gevaar brengen of moet de auto doorrijden met als gevolg dat het tegen de bus aanrijdt en het leven van veertig kinderen in gevaar brengt? Als het een ‘split second’ beslissing is, maakt de machine — het algoritme — de beslissing. En als het misgaat; wie is er dan verantwoordelijk? De programmeur? Het algoritme zelf? Krijgen we straks rechtszaken waarin een machine ter verantwoording wordt geroepen of wordt bestraft?

De toekomst van onze data society werpt deze vragen op en de antwoorden zullen misschien wel eerder nodig zijn dan dat we ze kunnen geven. De echte robotisering van de wereld zit er nog aan te komen. Hoe zit het bijvoorbeeld met de autonome en bewapende robots van het Amerikaanse leger? Wanneer mag een dergelijk autonoom systeem de keuze “kill or take hostage” maken en welke criteria liggen aan die keuze ten grondslag?

De menselijke ethiek is voortdurend al een kwestie van work-in-progress, denk bijvoorbeeld aan kwesties als abortus, euthanasie. homohuwelijken en slavernij. Hoe moeten we dan in staat zijn de autonome machines van nu en de toekomst een moraliteitsbesef mee te geven? Het vormen van machines en algoritmen met een set aan ethische waarden is een taak die niet lineair is uit te voeren. Ik denk aan filosofen, computerwetenschappers, beleidsbepalers, overheden en advocaten als vijf groepen met hun eigen beroepsethiek die de kar zullen moeten gaan trekken.

De andere kant van het spectrum is dat de ethische vragen die ik opwerp in dit artikel voor sommigen slechts borrelpraat zijn vergeleken met de vooruitgang die we kunnen boeken. Een dokter heeft geen toegang tot een complete wetenschappelijke database die hij kan aanboren bij elke keuze die hij maakt, een algoritme wel. Door onwetendheid maken artsen dagelijks verkeerde diagnosen of schrijven verkeerde medicijnen voor, is het ethisch verantwoord om deze beslissingen niet door een algoritme, zoals IBM’s Watson, te laten nemen als de kans dat de beslissing correct is aanzienlijk hoger ligt dan bij een dokter van vlees en bloed?

De Duitse socioloog en filosoof Jurgen Habermas schreef ooit: “moral principles are always already immersed in concrete historical contexts of action”. De historische context zal ons in deze kwestie maar deels kunnen voorzien van een referentiekader. De moraliteit van machines stelt ons voor nieuwe keuzen en afwegingen en dit zullen we vorm moeten geven zonder hulp van een ‘auto complete’ functionaliteit.