Justice : demain, tous jugés par un algorithme ?

L'Equipe du futur
L’Observatoire du futur
9 min readMar 30, 2021

Au cours de ce siècle, l’utilisation massive des algorithmes va bousculer de nombreux secteurs d’activité, ainsi que le marché de l’emploi. A court terme, le secteur juridique devrait être l’un des plus touchés par la généralisation et le perfectionnement de l’intelligence artificielle, et vivre un véritable moment de bascule historique. Avec une capacité de traitement des données démultipliée, on assiste déjà à une révolution des pratiques dans ce secteur, ainsi qu’à l’apparition de nouveaux métiers. La legaltech, comme on l’appelle désormais, s’organise aussi en France. Elle profite de l’engouement pour l’innovation numérique, alors que les moyens alloués à la Justice sont insuffisants. La France dispose ainsi de trois fois moins de juges par habitant qu’en Allemagne. Dans ce contexte, quel avenir réserve les algorithmes à la justice ? Comment assurer leur neutralité de traitement ? A l’avenir, doit-on redouter d’être jugé par un algorithme dans des tribunaux virtuels ?

Le capitalisme de plateforme bouscule le secteur juridique

En France, les premiers services juridiques en ligne sont récents : ils ont été créés en 2014. Depuis, ils n’ont eu de cesse de se développer, au même rythme que celui des technologies et des algorithmes qui permettent désormais un traitement de masse et une exploitation fine des données juridiques. La justice prédictive, qui repose sur l’exploitation de données et de statistiques basées sur des décisions de justice, est en plein développement grâce à l’intelligence artificielle. Les avantages de cette nouvelle forme de justice sont nombreux. Elle apporte une aide précieuse et facilite le travail des juges, dans un contexte de raréfaction des moyens. Elle permet également d’uniformiser le droit et donc de renforcer le principe d’égalité des citoyens devant le droit. Par contre, la justice prédictive n’encourage pas la prise en compte des situations particulières, ni l’émergence de jurisprudences. C’est ce que démontre une étude réalisée en 2016 par des chercheurs anglais et américains : « un juge humain prend en considération certains éléments que la machine ne traite pas, issus de son intuition et de sa propre sensibilité. »

Cette prise en compte de l’innovation technologique au service des représentants de la loi, mais aussi des justiciables, c’est la promesse de la startup Doctrine, première plateforme d’information juridique dans l’hexagone. A l’origine de sa création en 2016, un simple constat : la difficulté, même pour les professionnels du droit d’accéder simplement aux sources du droit et en particulier à la jurisprudence. Avec le temps, la plateforme a mis en ligne des millions de décisions de justice, avant de créer un moteur de recherche puis d’autres produits permettant d’accéder facilement à l’ensemble des sources du droit.

Malgré son développement rapide, son utilisation fait encore débat aujourd’hui parmi les avocats et les magistrats. Après des accusations de typosquatting en 2018, et la supposée utilisation d’adresses mails très ressemblantes à celles de professionnels ou de sociétés existantes pour récupérer des décisions de justice auprès des greffes de différentes juridictions, le Conseil national des barreaux et le Barreau de Paris ont déposé plainte en 2019 contre la start-up. A l’origine de leur courroux : l’utilisation des données personnelles des avocats — manipulées à leur insu selon eux — et la constitution d’un fichier dans lequel il est possible de retrouver toutes les décisions de justice et le nom des clients, même ceux dont la procédure est toujours en cours.

Ce débat rejoint au fond celui sur la protection des données personnelles, dans un contexte de fort développement du capitalisme de plateforme. Jusqu’en 2018, leur utilisation reposait sur un consentement plus ou moins tacite entre l’utilisateur et l’entreprise qui souhaitait les utiliser. Mais les différents scandales associés à leur exploitation ont fait prendre conscience aux utilisateurs que leurs données personnelles font l’objet d’un commerce, très rentable pour certains. Devant la pression citoyenne, l’Europe a créé le Règlement général sur la protection des données, plus connu sous l’acronyme RGPD. Ce nouveau règlement s’inscrit dans la continuité de la loi française Informatique et Libertés datant de 1978 renforçant le contrôle par les citoyens de l’utilisation de leurs données. Son premier atout : il harmonise les règles en Europe en offrant un cadre juridique unique aux professionnels. De plus, il permet de développer leurs activités numériques au sein de l’UE en se fondant sur la confiance des utilisateurs. Enfin, en plus du « consentement explicite », les CNIL peuvent prononcer des sanctions à hauteur de 20 millions d’euros ou équivalentes à 4% du chiffre d’affaires mondial de la société visée et, pour les pousser à agir fermement, elles pourront être saisies par des plaintes collectives. Mais le RGPD, s’il cadre fortement l’utilisation de nos données personnelles, ne les interdit pas : il autorise toute entreprise à les collecter et les utiliser si elle y trouve un « intérêt légitime » (économique, structurel…) et que la poursuite de cet intérêt ne porte pas une « atteinte disproportionnée » aux intérêts des personnes concernées.

Schumpeter au pays des algorithmes

Depuis 2016, Ross travaille pour le cabinet d’avocats américain Baker & Hostetler. Il a plus de 900 collègues qui lui demandent de l’assister dans leur travail au quotidien. Surdoué — il est capable de traiter un milliard de documents par seconde — il est spécialisé dans l’étude des faillites d’entreprises. Ross n’est pas un employé comme les autres, c’est un “avocat robot” doté d’une intelligence artificielle développée par la société IBM, à partir de la célèbre technologie Watson. Son efficacité est telle qu’il vient concurrencer directement les jeunes avocats chargés jusqu’à présent d’assister leurs collègues et de rechercher les documents liés aux questions légales qui se posent.

D’autres solutions encore plus efficaces que celles développées par IBM feront leur apparition dans les prochaines années, au fur et à mesure que la technologie se développera et que les algorithmes peaufineront leur apprentissage. Des métiers disparaîtront, des nouveaux feront leur apparition, comme ceux récemment créés pour accompagner le développement de ces nouvelles plateformes : juristes codeurs, juristes data ou encore juristes privacy.

Une nouvelle fois, le principe de destruction créatrice si cher à Joseph Schumpeter, célèbre économiste américain du début du XXème siècle, fait la démonstration de sa pertinence. Selon lui, les cycles économiques et industriels s’expliquent par le progrès technique et les innovations qui en découlent. De nouveaux emplois viennent alors remplacer les anciens devenus obsolètes. C’est ce phénomène que l’on observe actuellement dans le secteur juridique avec l’intelligence artificielle. Un nouveau cycle économique restructurant se met en place et les bouleversements en cours, mais aussi ceux à venir, risquent de s’accélérer.

Même si les conséquences de l’automatisation et de l’utilisation de l’intelligence artificielle sur l’emploi sont encore mal connues, quasiment tous les secteurs de l’économie devraient être bousculés par leur généralisation. Selon une étude réalisée par Citygroup réalisée sur la base des données de la Banque mondiale, 57% des emplois de l’OCDE sont menacés. Dans des pays comme l’Inde ou la Chine, ce sont respectivement 69% et 77% des emplois qui risquent d’être automatisés. Sur l’exemple du secteur juridique, d’autres connaissent déjà des changements notables comme le secteur médical avec une mise en application des algorithmes pour établir des diagnostics plus efficaces, ou encore le secteur bancaire et financier avec des algorithmes capables de gérer en masse des ordres d’achat et de vente d’actions de manière automatisée.

Couvrez ce biais que je ne saurais voir…

Si le secteur juridique doit être l’un des premiers touché par les bouleversements liés à l’utilisation massive de l’intelligence artificielle, comment être certain que celle-ci se fera sans reproduire ou aggraver les inégalités et les discriminations déjà présentes dans nos sociétés ?

La première à avoir alerté sur les dangers de la surexploitation des données pour nourrir les algorithmes est la mathématicienne Cathy O’Neil. Elle démontre dans son livre “Algorithmes, la bombe à retardement” comment ils exacerbent les inégalités dans notre société.

En cause : les biais algorithmiques. Ces derniers apparaissent quand les données utilisées pour entraîner l’intelligence artificielle reflètent les valeurs implicites des humains qui les collectent, les sélectionnent et les utilisent. Autrement dit, les algorithmes ne nous libéreraient pas d’idéologies racistes ou homophobes, d’opinions nocives ou de préjugés sexistes… Au contraire, elles nous y enfermeraient !

Dans ce contexte, quelle valeur apportée à la justice prédictive qui utilise des algorithmes ? Surtout que des précédents existent déjà. En 2016, une enquête de l’ONG ProPublica a mis en évidence l’existence d’un biais raciste dans l’algorithme utilisé par la société Northpointe qui se base sur les réponses à 137 questions d’un prévenu pour évaluer son risque de récidive. Ses concepteurs affirmaient pourtant ne pas prendre directement en compte ce critère. Toujours selon l’ONG, le logiciel avait largement surévalué le risque de récidive des Afro-Américains, qui se sont vus attribuer un risque deux fois plus important que les Blancs. A l’origine de cette situation, un codage mathématique reposant sur une interprétation des données et des choix qui sont eux bien humains.

Alors, comment se prémunir de ces biais ? Quelle stratégie la legaltech peut-elle mettre en place pour rendre vraiment neutre la technologie ?

Cathy O’Neil semble avoir trouvé la solution. Elle milite depuis longtemps pour la réalisation d’audits algorithmiques indépendants. Elle a même fondé son propre cabinet spécialisé dans ce domaine. De son côté, le gouvernement américain a rédigé un projet de loi qui vise à forcer l’État, mais aussi les entreprises qui réalisent un chiffre d’affaires supérieur à 50 millions de dollars, à soumettre leurs algorithmes à une batterie de contrôles pour déceler d’éventuels biais et les “réparer”. Pour y arriver, il faudra toutefois vaincre les réticences des entreprises qui rechignent à faire toute la transparence sur l’utilisation de leurs algorithmes, gérés comme des boîtes noires, et qu’elles considèrent comme l’élément central de leur stratégie commerciale.

D’autres solutions existent pour lutter contre ces biais : l’adoption de principes éthiques qui restent malgré tout difficilement codables ; l’invention d’un serment d’Hippocrate réservés aux datascientists qui prendrait la forme d’un code de conduite comprenant des principes moraux incontournables, etc.

Demain, des juges digitaux ?

Une fois débarrassés de leurs biais, les algorithmes pourraient-ils modifier la façon dont la justice est rendue dans nos démocraties ? Dans quel contexte sociétal s’inscrirait une utilisation massive de l’intelligence artificielle au service du droit ?

A moyen terme, pour nous aider, l’intelligence artificielle devra tout d’abord pouvoir traiter beaucoup de données en un temps record, bien plus rapidement qu’elle ne réussit à le faire actuellement, à l’image de notre cerveau, qui dispose d’une puissance de calcul de 1 zettaflop, lui permettant de réaliser 1 000 milliards de milliards d’opérations par seconde !

Dans un ordinateur, le processeur est la pièce équivalente à notre cerveau. C’est lui qui effectue tous les calculs. Pour y arriver, il travaille sur les données stockées en mémoire, et tout ce que l’on voit à l’écran, sur le réseau ou sur le disque dur, constitue le résultat de ces travaux. Jusqu’à très récemment, les ordinateurs savaient traiter beaucoup de données mais pas suffisamment pour rivaliser avec notre cerveau.

Pour obtenir une puissance de calcul inégalée, certains états comme la Chine ou des entreprises comme Google, Intel ou IBM se sont alors tournées vers les supercalculateurs comme Fugaku, le plus puissant au monde, qui traite 415 millions de milliards d’opérations par seconde. Mais pour beaucoup d’ingénieurs et d’informaticiens, l’avenir est désormais aux ordinateurs qui utilisent les propriétés quantiques de la matière pour repousser encore plus leurs capacités d’analyse et de traitement.

La recherche en informatique quantique est apparue dans les années 1980. Elle repose sur l’un des principes de la physique quantique appelé superposition. Selon cette mécanique, un objet peut avoir deux états en même temps. Ainsi, une pièce de monnaie peut être à la fois pile et face, alors que dans le monde « classique », elle ne peut être que l’un ou l’autre à la fois. Cet ordinateur quantique serait capable de réaliser des opérations sans équivalent et de faire plusieurs calculs à la fois, contrairement aux ordinateurs actuels qui doivent les réaliser les uns après les autres, aussi rapides soient-ils. On parle alors de suprématie quantique avec des ordinateurs qui pourront calculer en seulement quelques secondes des opérations qui prendraient des milliers d’années à un superordinateur !

Ces nouveaux ordinateurs quantiques pourraient bien révolutionner de nombreux secteurs industriels en permettant de passer d’une intelligence artificielle faible — celle que nous connaissons finalement actuellement — à une intelligence artificielle forte. Et si l’on combine à plus long terme cette perspective aux principes de destruction créatrice de Joseph Schumpeter, les métiers d’avocats, de magistrats et de juges devraient disparaître, dépassés par les capacités d’exécution des algorithmes du futur. Idem pour les tribunaux qui devraient évoluer vers un format digital.

Utopique ? C’est pourtant la voie empruntée par l’Estonie dont le gouvernement développe actuellement une intelligence artificielle capable de rendre des jugements autonomes dans des délits mineurs, dont les dommages sont inférieurs à 7.000 euros. Comment ? Tout simplement grâce à une plateforme en ligne dédiée sur laquelle chaque partie renseigne les données nécessaires aux algorithmes du logiciel pour rendre leur verdict.

--

--