L’automatisation de la justice

Quelques réflexions sur la place des intelligences artificielles dans la justice

Yowa Muzadi Aguilera
Stéphane Grumbach
7 min readDec 15, 2017

--

Source : Pixabay

L’automatisation de la justice se traduit aujourd’hui par l’utilisation combinée d’une part, d’algorithmes qui donnent naissance à des intelligences artificielles et des Big Data (et l’apparition des politiques d’Open Data [1]) dans tout ce qui touche à la justice.

En pratique, que signifie automatisation de la justice ? Cela veut-il dire que demain, on pourra divorcer en ligne, ou bien devant un juge-robot ?

Les promesses de l’automatisation de la justice enthousiasment déjà de nombreux acteurs et il suffit de se rendre sur le site de Ross intelligence pour mesurer l’esprit des changements (espérés, réalisés, imaginés) à venir : « Do more than humanly possible. Supercharge lawyers with artificial intelligence ».

L’assistance aux avocats n’est pourtant qu’une facette des possibilités qui apparaissent avec l’émergence des LegalTechs. Ce terme désigne la génération d’entreprises, récentes, qui utilisent les nouvelles technologies pour offrir des services juridiques. Ces nouvelles offres reposent dans la grande majorité des cas sur l’automatisation complète ou partielle d’un service juridique, et ce, à trois niveaux :

- le support (document)

- le processus (procédure juridique)

- la relation avec le professionnel du droit

Panorama

Au niveau du support, le plus courant reste la dématérialisation des contrats : des startups proposent désormais de produire des contrats automatiquement (ou presque) à partir de quelques informations à renseigner. Captain Contrat par exemple, vous propose de rédiger vos conditions générales, vos contrats commerciaux ou de vous accompagner et de prendre en charge toutes les démarches administratives pour créer juridiquement votre entreprise.

Captain Contrat s’appuie notamment sur un algorithme qui comprend toute une partie des réponses à un questionnaire prédéfini et qui modélise à partir de là une première version d’un contrat par exemple. L’avocat n’intervient que dans une seconde phase, dite de « personnalisation », ce qui permet, selon l’entreprise, de diviser le coût par quatre des frais d’avocats pour les TPE-PME. Efficace, donc. De son côté, Weclaim permet de régler ses litiges en ligne, par l’utilisation d’un algorithme qui génère les documents juridiques nécessaires.

Weclaim et Captain Contrat ne sont que deux des nombreux exemples d’entreprises qui se créent autour du marché économique de l’automatisation de la justice ; une partie de la demande pour ces nouveaux services a pour autant été entièrement créée par l’apparition de ces entreprises, certaines PME préférant se passer jusqu’alors de conseils juridiques (car trop chers ou trop complexes en apparence).

Les services précédemment évoqués entraînent un véritable changement des modes de consommation du droit en rendant, pour certains, la justice moins chère, plus accessible et plus prévisible.

La question de l’automatisation de la justice pourrait être abordée au regard de plein de thèmes différent mais j’ai choisi de me concentrer sur la place de l’automatisation dans le jugement et dans l’exécution de la justice à son plus au niveau, c’est-à-dire au niveau du juge.

Le robot-juge

Source : Pixabay

Tout cela paraît en théorie plutôt prometteur : désengorgement des tribunaux, estimation des chances de réussite d’une procédure (avec Predictice par exemple), etc. au point qu’on pourrait se demander si les algorithmes prenant la forme d’intelligences artificielles ne pourraient pas rendre la justice plus juste, plus efficace, plus performante, puisque libérée des biais humains.

Source : The Economist

A cet égard, les résultats d’une étude conduite par des chercheurs de l’Université de Ben Gourion de Negev, en Israël, sont intéressants. Ces chercheurs ont suivi huit juges israéliens pendant dix mois dans les 1000 décisions de justice qu’ils ont eu à rendre. Ces décisions concernaient des prisonniers qui demandaient à être mis en liberté conditionnelle ou à faire changer leurs conditions d’incarcération.

Les résultats de cette étude montrent qu’en début de journée, les juges prenaient des décisions en faveur des prisonniers environ 2 fois sur 3. Au fur et à mesure que le temps passait cependant, ce ratio chutait considérablement, atteignant parfois zéro. Leur clémence ne réapparaissait qu’après les deux pauses « déjeuner » de la journée. Le taux d’approbation des demandes remontait alors à sa valeur originelle [2].

Cette expérience illustre bien les biais cognitifs de l’Homme, qui rendent son jugement parfois imparfait : un robot pourrait juger lui, sans être soumis aux émotions, aux carences qui parasitent les décisions humaines, ou sans devoir satisfaire des besoins tels que se nourrir ou dormir. On aurait alors une justice impartiale et disponible tout le temps. Mais trois problématiques majeures subsistent :

· La transparence

· L’accessibilité, notamment des algorithmes qui aident à établir les profils de risque des accusés/condamnés

· Leur neutralité (relative)

Transparence

Une intelligence artificielle (basée sur un algorithme) fonctionne sur le modèle d’un réseau de neurones. Ce réseau est un système complexe qui permet à l’intelligence artificielle, à partir de grandes bases de données, d’apprendre par elle-même (via un procédé appelé le machine learning). Le processus d’apprentissage est réalisé en autonomie, et il est impossible, y compris pour les créateurs de l’IA, de déterminer comment elle arrive à son résultat.

Prenons un exemple simple pour illustrer ce concept. Supposons qu’un robot doté d’une intelligence artificielle soit utilisé pour rendre un jugement. On lui pose la question « Cette personne est-elle coupable ? » [3]. Le robot, disposant de toutes les informations du cas, arriverait à sa conclusion. Qu’elle soit positive ou négative, peu importe, puisqu’il ne serait pas, à ce jour, en mesure d’expliquer comment il est arrivé à son raisonnement.

Ce phénomène est connu sous le nom de « black box » et dépasse le simple cadre de la justice (il concerne les intelligences artificielles dans leur ensemble). Le problème étant que dans le cadre de décisions juridiques, il faut pouvoir argumenter sa décision : l’IA n’est pas capable d’être transparente sur son processus de raisonnement.

Accessibilité

Les algorithmes présents dans les intelligences artificielles relèvent de la propriété intellectuelle d’entreprises privées. Ils ne sont, par définition, pas publics (sans compter, comme vu auparavant que personne n’est en mesure de savoir comment ils fonctionnent, pas même les instance juridiques qui, pourtant, les utilisent pour prendre des décisions importantes). Cela signifie que les accusés n’ont pas accès aux dispositifs utilisés dans le cadre de leur jugement.

Dans l’affaire Loomis v. Wisconsin par exemple, une pétition fut adressée à la Cour Suprême des Etats-Unis pour faire appel à la décision de la Cour Suprême du Wisconsin. L’argumentation d’Eric Loomis, condamné à six ans de prison mettait en cause l’utilisation dans son cas, d’un logiciel privé [4] dont le code source n’était pas public (en tout cas, il n’était pas accessible aux avocats d’Eric Loomis). Les avocats de Loomis estimaient ainsi que son droit à une « procédure régulière » (right to due process en anglais) n’était pas respecté.

Si les codes des IA utilisés dans le cadre de procès ne peuvent pas être accessibles aux accusés ou aux victimes, on peut s’interroger sur les procédés d’inspection mis en place pour contrôler le fonctionnement de ces outils.

Neutralité

Les algorithmes utilisés dans les cours de justice ne sont pas neutres. COMPAS [5], un logiciel qui permet de mesurer la probabilité de récidiver, a par exemple fait l’objet d’un article publié par ProPublica. Après avoir analysé 10 000 cas où COMPAS avait été utilisé, le média-ONG a révélé les résultats de ses travaux :

  • les Noirs avaient 2 fois plus de probabilité (par rapport aux Blancs) d’être étiqueté avec un risque plus élevé sans pour autant récidiver par la suite,
  • l’inverse se produisait avec les Blancs, plus souvent associés à un risque plus faible, même lorsqu’ils finissaient par récidiver par la suite.

La méthodologie de ProPublica peut certes être discutée, mais cette affaire révèle surtout que les algorithmes sont intrinsèquement biaisés puisqu’ils s’appuient sur de larges données statistiques qui proviennent… des humains. Les machines ne sont alors pas à l’abri des biais cognitifs humains.

Mais les biais cognitifs dans les algorithmes ne concernent pas uniquement la question raciale. En dépit de la gravité des crimes financiers, les systèmes prédictifs ciblent disproportionnellement les crimes de rue, plutôt que les crimes des cols blancs : la criminalisation systématique des pauvres réapparaitra également dans ces algorithmes.

A ce sujet, une initiative intéressante a pour but d’établir un modèle de prédiction des crimes des cols blancs, en identifiant leurs zones d’incidence. Il s’agit d’une initiative qui donne à réfléchir sur les moyens de corriger les biais cognitifs dans les algorithmes.

Gardons ainsi à l’esprit que l’intelligence artificielle n’est certes qu’un outil, mais qui reflète néanmoins une pensée, une réalité et donc des biais. Il faut alors dès à présent penser aux gardes fous et aux mécanismes qui permettront de contrôler et de surveiller le bon fonctionnement de ces outils, de manière à ce qu’ils soient efficaces, et justes.

[1] En France par exemple, la loi sur le numérique d’octobre 2016 prévoit la mise à disposition de toutes les décisions de justice sous un format ouvert.

[2] Pour plus de détails sur cette expérience, je vous invite à lire l’article paru dans The Economist à ce sujet, et disponible via le lien suivant : http://www.economist.com/node/18557594

[3] Ce cas de figure, à ma connaissance, n’existe pas encore, et il s’agit d’une situation purement hypothétique destinée à illustrer un concept.

[4] Il s’agit du logiciel COMPAS : Correctional Offender Management Profiling for Alternative Sanctions. COMPAS est un logiciel de profilage et d’évaluation des risques

[5] Voir note 4.

--

--