Faut-il rendre le Big Data loyal ? (3/3)

Franck Bardol
3 min readJun 3, 2017

--

Transcript de mon intervention au colloque “Intelligence Artificielle. Loyauté et transparence des Algorithmes” à l’Institut Henri Poincaré. Intervenants Cédric Villani, Dominique Cardon, Pierre Saurel, Igor Carron et Franck Bardol

Des algorithmes qui reproduisent les inégalités

Bien qu’on nous promette des calculs neutres, loyaux, impartiaux et donc aux résultats indiscutables, on se retrouve avec des procédés de calcul qui reproduisent les biais humains et les inégalités.

Prenons l’exemple réel d’un algorithme d’apprentissage des décisions entrainé à reproduire le verdict d’attribuer un prêt bancaire.

Le calcul du Big Data permet à l’algorithme de retrouver lui-même les mécanismes de décision uniquement à partir des données disponibles.

Les éléments chargés de l’aider dans sa décision deviennent alors sensibles.

Une donnée qui peut sembler anodine comme le lieu d’habitation peut — à l’usage — servir à exclure encore plus des populations.

Si le code postal fait partie des éléments qui entrent dans la décision de l’algorithme d’attribuer un prêt alors les populations exclues du prêt de part leur lieu d’habitation le seront encore plus.

En effet, l’algorithme apprend les données en découvrant les schémas récurrents enfouis et cachés.

Si parmi eux, le recoupement du lieu d’habitation avec la décision de ne pas accorder le prêt émerge des données alors l’algorithme fait resurgir ce préjugé et l’applique ensuite dans toutes ses décisions ultérieures !

On cautionne à notre insu les inégalités existantes en les “technicisant”. Les travaux du sociologue Dominique Cardon illustre bien ce propos.

Cet exemple — parmi d’autres — nous fait prendre conscience que ces services reposant sur l’analyse des données massives sont souvent partiaux et peu transparents. La transparence d’un algorithme est sa capacité à “dire ce qu’il fait”.

Les algorithmes du Big Data ne sont pas neutres, pas plus que les traces qui les nourrissent. Ils procèdent d’une intention et formalisent “en dur” les préjugés subtils contenus dans les données. Ces algorithmes écrivent des opinions dans du code informatique.

Des traitements qui enferment l’usager dans ses croyances

En dernier lieu, nos vies numériques sont triées et combinées en permanence afin de révéler nos prochains actes. Parfois avant même qu’on ne l’exprime ni le perçoive.

Les algorithmes proposent ici du contenu que l’usager va consommer ainsi que des bannières publicitaires qui résonnent en lui.

La visée est de ne construire que des contenus appréciés ou susceptibles de l’être comme l’a évalué l’algorithme responsable de la construction.

C’est un chuchotement personnalisé et permanent auquel il est difficile d’échapper.

Les opinions contraires ou dérangeantes sont exclues car peu susceptibles de “générer du click”.

Même le célèbre moteur de recherche de Google évolue et ne proposera bientôt qu’un seul lien à cliquer en relation avec les mots-clés choisit par l’utilisateur.

On peut s’interroger de savoir si ces procédés de décryptage de l’information ne forment pas une nouvelle caverne de Platon.

Une caverne personnalisée qui nous projetterai et donnerai à voir uniquement nos croyances et celles de notre groupe social sans confrontation adverse. Une bulle de verre

Conclusion

La promesse du Big Data est de délivrer un résultat loyal, optimal et impartial en échange de nos données personnelles.

Les algorithmes du Big Data retrouvent et révèlent au sein des données les inégalités, les préjugés et les biais.

Ils se chargent ensuite de les transcrire de manière définitive dans le code informatique.

Il y a donc une nécessité de rendre le Big Data loyal en inscrivant ce principe dans le code informatique qui le constitue.

Les autorités politiques s’y intéressent désormais en premier lieu comme en atteste la commission OPECST du Sénat. De même que la commission de l’INRIA (Institut National de la Recherche en Informatique et Automatique) TransAlgo chargé d’évaluer la transparence des algorithmes.

Les sociétés privées s’emparent également du sujet. En témoigne le PDG de Microsoft qui milite pour rendre les développeurs plus responsables.

Ainsi que les initiatives OpenAI et des géants américains de la Silicon Valley chargées d’ouvrir, de rendre transparents le fonctionnement des algorithmes et d’en faire bénéficier le plus grand nombre.

L’auteur

Franck Bardol

Helps you to gain strategic insights for your business through your data

Former Programmer in Software industry — Analyst in Hedge-fund industry — ALM consultant in Insurance

Founder & co-organizer biggest european community of Data-Scientists (Paris Machine Learning)

--

--

Franck Bardol

<Data Expert / AI & Machine Learning programmer / Big Data Trainer>