Transparantie is ongelijk aan verantwoording

Bij toeval kwam ik op de pagina Bits of Freedom waarin Hans de Zwart zijn Godwin-lezing 2014 heeft gepubliceerd. Dit gebeurde omdat ik mezelf oriënteerde op de begrippen Smart Cities en Big data.
De druk om steeds meer informatie over jezelf prijs te geven is groot. De transparantie is ongelijk aan verantwoording die kan worden afgelegd over de data die we ingeven.

Het is al zo ver dat iemands functie ter discussie kan

komen te staan door het ontbreken van vermelding in een beroepsregister. Maar niet alleen de overheid wil meer van je weten; de transparantiedruk komt ook van bedrijven en zelfs van vrienden en collega’s. Die laatsten kunnen van je verwachten dat je WhatsApp gebruikt voor werk-gerelateerde communicatie. Wil je dat niet, dan heb je ongetwijfeld wat uit te leggen.

Samenwerken aan datagestuurde steden

Als ik denk aan Big data dan kom ik als snel uit op het koppelen van systemen en alle data die daarin is opgeslagen. Op de website van TNO die ik zomaar als voorbeeld neem, staat bijvoorbeeld: “TNO ondersteunt grote steden ICT in te zetten om grote vraagstukken te lijf te gaan. Simpel gezegd: we ‘knopen’ alle beschikbare data over mobiliteit, leefomgeving, gebouwen, energie, gezondheid en veiligheid in een open, toegankelijk systeem aan elkaar en zetten daardoor stappen die tot dan onmogelijk waren. Het Smart City Operating System combineert interoperabiliteit, big data analyse, data governance en community vorming. We zijn ervan overtuigd dat we samen met stadsbestuurders en het bedrijfsleven de wereld straks succesvolle toepassingen kunnen laten zien die we met Smart City OS hebben gerealiseerd.”

Gaat dit niet in de omgekeerde volgorde? Er ontstaan allerlei initiatieven in het bedrijfsleven en overheid en telkens mis ik de burger en de inspraak. We polderen ook hier weer raak door organisaties als platform31. Misschien is het gevolg van de Smart Cities wel bedreigend voor de staat als regelgever en bestuur? Misschien is de staat in de huidige vorm straks niet meer zo nodig? Wat zeker nodig is en gevuld moet zijn is de Big data en daaraan doen wij samen allemaal veelvuldig mee.

Participatie of doelgroep

En wat bedrijven betreft: hoeveel websites vragen niet om in te loggen via je Facebook-account, of willen dat je tracking-cookies accepteert voordat je de site kunt bezoeken? Of ze verplichten je om een telefoonnummer en geboortedatum in te vullen, terwijl dat voor jouw bezoek aan de site helemaal niet relevant is. Zo kun je als klant van ABN AMRO de door hun ontwikkelde ‘Grip’ app om meer inzicht te krijgen in je uitgavenpatroon, niet gebruiken als je jouw data niet wilt laten gebruiken voor commerciële profilering.

Het beste voorbeeld van druk om privégegevens te delen is wat mij betreft de nieuwe museumkaart: er wordt een klantprofiel van je gemaakt op basis van je museum bezoekjes. Maar je kunt er niet vanaf zien. Wil je de kaart gebruiken, dan ben je verplicht om ermee in te stemmen dat informatie over jouw gedrag wordt verzameld. Je kunt dan niet meer anoniem naar het museum.

Transparantie voor wie en welk doel?

Je reputatie wordt tegenwoordig steeds vaker opgebouwd aan de hand van allerlei gegevens die over je worden verzameld en geanalyseerd. Het bijzondere van veel digitale ontwikkelingen waarbij we onze persoonlijke informatie prijsgeven, is dat we ze niet scherp op ons netvlies hebben. Jouw gegevens gaan van de een naar de ander zonder dat je het merkt. We worden zelf transparanter voor de partijen die over onze informatie beschikken, maar wat zij hier vervolgens mee doen en wat de consequenties hiervan voor ons zijn, is vaak een zwart gat. We voelen die consequenties vaak niet direct en daarom lijkt het niet dringend om er aandacht aan te besteden. Totdat je ineens zelf het nadeel voor je kiezen krijgt.

Afhankelijk van het beeld dat men van je “digitale ik” opbouwt, kan je reputatie letterlijk beter of slechter worden. Door het analyseren van jouw data, vaak zonder dat jij het weet, kunnen bedrijven en de overheid je letterlijk verder “exploiteren.” Belangrijke beslissingen of keuzemogelijkheden worden voor jou al genomen aan de hand van jouw data zonder dat je daar nog goed zicht op of controle over hebt. Best eng toch?

Verantwoording

In de komende tien jaar zullen we zien dat “data-driven” technologieën veel verschillende sectoren opnieuw configureren. Denk hierbij aan autonome voertuigen tot gepersonaliseerde leren, van voorspellende politieinzet tot precisie geneeskunde. Terwijl de veranderingen die we zullen zien nieuwe kansen te creëren, zullen ze ook nieuwe uitdagingen — en nieuwe zorgen -ontdekken. Het is goed om met dit besef van deze problemen en kansen, ervoor te gaan zorgen dat we gaan bouwen aan gezonde socio-systemen.

Na alle informatie die ik heb gelezen geloof ik dat algoritmische transparantie valse hoop creëert. Niet alleen is het technisch gezien niet houdbaar, maar het verduistert de echte strategie en richtlijnen die op het spel staan.

Algoritmen zijn niets anders dan een reeks instructies voor een computer te volgen. Hoe complexer de technisch systeem, hoe moeilijker het is te onderscheiden waarom algoritmen met elkaar communiceren op de manier waarop ze dit doen. De controle op de complexe programmacode in het voor iedereen beschikbare publieke domein, zegt erg weinig over het afleggen van verantwoording. Denk bijvoorbeeld aan het “Heartbleed” lek dat werd geïntroduceerd in OpenSSL code in 2011, maar was niet ontdekt tot 2014. Honderdduizenden webservers vertrouwde deze code voor beveiliging. Duizenden top specialistische informatici werkten met deze code op een regelmatige basis. En geen van hen zag het probleem.

Misvatting

Iedereen was het erover eens over wat de “juiste” uitkomst had moeten worden en een heleboel bedrijven werden aangemoedigd om ervoor te zorgen dat er geen problemen waren. En toch, het duurde twee en een half jaar om een algoritmisch beveiligingslek te vinden.

Transparantie zorgt niet per definitie dat de verantwoordingsplicht even hoog is, zelfs wanneer de sterren zijn uitgelijnd. Het maakt het extra complex doordat je nergens algoritmische transparantie krijgt zonder de gegevens. Neem bijvoorbeeld Facebook News Feed. Dergelijke systemen zijn ontworpen om zich aan te passen aan elk type content en evolueren op basis van feedback van gebruikers (bijv., clicks, likes, etc.). Als je hoort dat er iets wordt “gepersonaliseerd”, dit betekent dat de gegevens die je in het systeem invoert worden vergeleken met de gegevens die anderen in het systeem invoeren.
Ten onrechte veronderstellen we vaak dat personalisatie betekent dat beslissingen worden genomen op basis van jouw gegevens. Integendeel, de bedoeling is om jouw gegevens in relatie te plaatsen tot anderen’. Zelfs als je Facebook zou verzoeken om hun Nieuwsvoorziening algoritme, je niets zou weten zonder de gegevens. En vragen om die gegevens zou een schending van de privacy van de andere gebruikers zijn.

Niet transparantie om de transparantie

Het doel moet niet de transparantie zijn om de transparantie. Wat we moeten willen is verantwoording. Veel mensen denken nog dat je door algoritmische transparantie verantwoording verwezenlijkt. Ik ben niet zo zeker dat dat klopt. Maar ik weet dat zolang we niet weten waarop mikken, we niet dichter bij het afleggen van verantwoording komen.

Als het proces transparant is, kunnen we dan zien hoe oneerlijke beslissingen werden genomen? Maar als wij niet eens weten hoe een aantal begrippen zoals rechtvaardigheid zijn gedefinieerd?

Is het eerlijk om iedereen gelijke kansen te bieden of is het ter bestrijding van ongelijkheid? Is het beter dat iedereen toegang heeft tot de inhoud die wordt gedeeld door hun vrienden of moet de haat speech worden gecensureerd? Wie krijgt deze beslissing? We hebben nog veel werk om onze normen te definiëren die in veel opzichten gescheiden zijn van het werk van de algoritmische processen die deze normen moeten implementeren. Praat mee als burger van je smart city, smart overheid, smart provider.

Met het gebruik van algoritmen is één ding heel duidelijk: onze maatschappijopvattingen zijn niet goed verwoord. Wij geloven in rechtvaardigheid, maar we kunnen niet omschrijven. Wij staan achter gelijkheid, maar niet als bepaalde mensen lijden. Wij gaan voor rechtvaardigheid, maar wij accepteren processen die anders vermoeden. Wij geloven in de democratie, maar de implementatie van de systemen die kunnen ondersteunen zijn gebrekkig. Informatici zijn afhankelijk van duidelijkheid bij het ontwerpen en implementeren van algoritmen. Als we niet duidelijk zijn in wat we willen, heeft verantwoordingsplicht geen schijn van kans.

Bronnen:

Overheden en big data!

Danah Boyd
Bits of freedom
Blijf alert en participeer waar je kunt.