L’éthique de l’algorithme

Maryse Colson
data-science.be
Published in
5 min readFeb 6, 2018

Dimanche dernier, au détour d’un site internet d’information, j’ai été attirée par ce titre: “Un algorithme prédit la date de décès des patients en fin de vie”. L’intitulé, délibérément macabre et accrocheur, enchaîne sur un article plutôt pondéré qui explique que l’Université de Stanford a élaboré un algorithme qui donne effectivement des pronostics sur le décès, plus ou moins rapide, des personnes en toute fin de vie. “Déterminer une date de décès avec précision” lit-on “peut permettre à des patients d’échapper à une série d’examens complémentaires et traitements douloureux inutiles et ainsi de bénéficier de soins palliatifs appropriés. A l’inverse, ça peut également permettre de ne pas admettre trop tôt le patient en service palliatif et d’arrêter trop vite des traitements capables de le maintenir plus longtemps en vie.”

Le journaliste a bien fait son travail. S’il avait écrit “Un algorithme soutient le diagnostic vital de patient en fin de vie”, je n’aurais pas cliqué dessus. Faire croire aux lecteurs que les machines décident à la place des hommes, qu’elles gagnent même un peu de divin en pouvant prédire notre date de décès, c’est forcément plus vendeur que dire “l’homme et la science oeuvrent ensemble pour un monde meilleur”.

Il n’empêche, cela nous amène à une question primordiale en data science : celle de l’éthique et de la responsabilité des data scientists. Peut-on, déontologiquement, demander à un algorithme de révéler la date de mort d’un patient, même si c’est pour lui offrir les soins les plus adaptés? A quel point le médecin peut-il s’appuyer sur la technologie, numérique ou non, pour prendre une décision? Pour avoir discuté avec des médecins, je peux avancer qu’ils sont extrêmement prudents et qu’ils défendent farouchement leur libre-arbitre professionnel. La technologie n’est envisagée que comme un soutien à la décision, un exosquelette qui doit obligatoirement profiter au patient.

La question de l’éthique se pose forcément dans le milieu médical où la vie d’êtres humains est en jeu. Cependant, elle est aussi présente dans d’autres secteurs, pour certains très familiers et à priori moins sensibles. Ainsi, est-ce déontologiquement correct de la part de Facebook de vous afficher des publicités Meetic dès que vous avez coché “célibataire” dans votre profil? Est-ce correct de la part d’un marque de vêtement de yoga de surfer sur la vague de l’estime de soi pour dire à son public “use the code SELF LOVE and get 25% off on yoga pants”? En d’autres termes, est-ce éthique d’utiliser nos données personnelles et d’activité en ligne pour vendre plus, mieux, plus cher, plus vite?

On n’a pas attendu GDPR pour régler la question de l’utilisation des données personnelles : depuis 1992, en Belgique, leur utilisation est fortement règlementée. Aucune entreprise ne peut utiliser vos données sensibles sans vous en avoir fait explicitement la demande, sous peine de devoir payer des sommes pharaonique à la commission européenne dès mai prochain (et ça, c’est l’effet GDPR). Vos données d’activité, elles, sont massivement utilisées par les entreprises pour “optimiser votre expérience utilisateur” sur leur site. Les cookies, par exemple, permettent à Esprit de savoir que je suis allée 7 fois en 2 jours sur telle veste en cuir ou à Linkedin de noter que vous êtes très intéressé par le poste de data scientist publié par EURA NOVA (et vous avez raison!).

“Et de l’autre côté du prisme, il y a les utilisateurs”, me fait remarquer Christophe, Technical Lead chez EURA NOVA. “Avec une question équivalente : est-ce responsable de notre part de permettre cela et adhérer à ces utilisations de nos données ?”. On doit effectivement s’interroger sur notre propre rapport à l’intelligence artificielle et sur le danger potentiel de devenir passif face à elle.

Du coup, qui a la responsabilité de l’éthique? Les entreprises, les utilisateurs ou les data scientists? Bien sûr, c’est une responsabilité partagée entre les entreprises qui exploitent les données et les utilisateurs qui donnent leur accord pour qu’on utilise leurs données. Quant aux data scientists… il doit en exister de toutes sortes.

Chez EURA NOVA, nous nous représentons un data scientist comme une chaîne dont les maillons couvrent différents aspects : compréhension business, compréhension technique, feature engineering, mise en production, … et point de vue éthique. La question tombe forcément dans son giron. Quand j’interroge mes collègues, tous me répondent qu’ils ne pourraient pas travailler sur un cas hors de leurs valeurs profondes: s’ouvrir à l’intérêt de l’autre, oui ; mais oblitérer les droits fondamentaux de l’Homme, non.

“Nous avons déjà travaillé sur des use cases de data science où la question de l’éthique s’est posée m’explique Quentin, delivery manager. Pour un cas particulier, il s’agissait d’identifier, au travers de leur comportement, de “trop bons” utilisateurs, ceux qui “gagnent” trop. D’un point de vue éthique, c’est évidemment questionable. Si ces utilisateurs sont bons en respectant les règles, on peut difficilement le leur reprocher. Après analyse et discussion, on a clarifié l’objectif de la mission: l’identification des fraudeurs, des tricheurs. Les algorithmes utilisés peuvent être similaires dans les deux cas, mais la finalité est très différente!

“On peut ramener cet exemple à celui de la fission nucléaire, poursuit Quentin. Le fait scientifique, en soi, n’est ni bon ni mauvais. Ce sont ses applications qui posent des questions déontologiques. Utilisée dans le cadre civil, la fission nucléaire produit de l’énergie et son intention est positive. Par contre, elle représente un danger lorsqu’elle est utilisée dans le cadre militaire, transformée en bombe atomique, ou quand elle est mal utilisée ou mal sécurisée dans le cadre civil. Le scientifique doit garder sa neutralité pour faire avancer la science. Mais si on lui demande d’appliquer sa découverte à une fin malhonnête ou dangereuse, c’est son intégrité personnelle qui est engagée”.

L’intelligence artificielle soutient l’intelligence humaine : c’est le cas aujourd’hui, ce sera encore plus le cas demain. Elle n’est pas là pour la remplacer, la déliter, la transformer. Vous souvenez-vous du film “Eternal Sunshine of the Spotless Mind”? Une romance onirique de Michel Gondry dans laquelle la science peut effacer les souvenirs tristes de l’être humain. Ce qui m’avait marqué dans ce film, c’était ce moment où Jim Carrey hurle pour que la machine s’arrête, pour qu’on lui laisse intacte sa mémoire brisée. Ce choix délibéré entre les prouesses d’un algorithme et l’intégrité de l’être humain. Un choix que nous devons tous, aujourd’hui, faire consciemment.

Cette question d’éthique est-elle abordée dans votre entreprise ou votre quotidien? Si non, une bonne façon de commencer à se la poser est d’entamer votre prochain projet en tenant compte de ce paramètre. Lors de la définition de l’objectif, osez poser la question et, surtout, proposer des variantes plus éthiques qui font honneur à notre intelligence… naturelle.

--

--

Maryse Colson
data-science.be

Inspired by real life and people. Tell stories about data science changing the world. Work @ EURA NOVA