La puissance de l’IA au service du bien commun

Comment la modification de notre compréhension de la notion de valeur et des données recèle peut-être la clé d’un monde meilleur

Un texte de Lauren Jane Heller, traduit par Thierry Holdrinet

Photo prise par The Roaming Platypus sur Unsplash

L’éthique entourant l’utilisation de l’intelligence artificielle (IA) s’impose comme un sujet d’actualité d’une grande importance, à un moment clef de la mutation technologique de notre monde. Cette technologie possède le potentiel de transformer la société en réduisant significativement la pauvreté et la maladie, en démocratisant l’accès aux services et en créant des sociétés plus équitables qui évitent aux humains de s’astreindre à des tâches dangereuses ou pénibles.

Avant tout, pour que cette vision d’avenir prometteuse se réalise, lorsque nous créons des systèmes avec de l’IA, nous devons nous assurer de leur impartialité et de leur précision sans faille, mais aussi revoir nos positions sociales à propos de la propriété des données et leur valeur, et enfin que le monde des affaires et les dirigeants changent leur approche quant à la valorisation économique des données et à la répartition de la richesse.

Rationalité augmentée

Il est important de comprendre le champ d’intervention de l’IA et ses limites actuelles. À sa plus simple expression, l’intelligence artificielle est un levier d’optimisation. Elle aide les gens à comprendre plus précisément comment certaines tâches devraient être exécutées et elle peut aussi servir à créer des systèmes qui effectuent des tâches qui sont considérées complexes ou pénibles par les humains. Cliff van der Linden, cofondateur et directeur scientifique de Delphia, société qui aide les gens à monétiser leurs données personnelles, associe cette optimisation au concept de rationalité augmentée.

«L’intelligence artificielle peut accroître notre capacité à penser rationnellement», selon van der Linden. “Cela ne veut pas dire aller au-delà de la capacité de penser ou à prendre des décisions, mais simplement de nous aider à réfléchir à ces décisions et quant à leur adéquation avec nos préférences.”

Autrement dit, l’intelligence artificielle confère aux machines la capacité d’analyser une très grande quantité d’informations pour que les humains puissent concentrer leur énergie ailleurs — effectuer une meilleure prise de décision par exemple. De plus, comme les humains n’ont pas les facultés cognitives suffisantes pour synthétiser rapidement toutes les informations auxquelles nous sommes exposées, notre prise de décision est trop souvent basée sur les émotions ou notre vision du monde, et nos biais cognitifs sont souvent à l’origine de positions trop enthousiastes ou fondées sur la peur, ce qui entraine des résultats médiocres ou parfois même préjudiciables.

«L’intelligence artificielle nous équipe mieux que jamais pour résoudre des problèmes critiques, tels que les changements climatiques, la disparité croissante de la richesse, les effets du vieillissement ou la discrimination systémique dans nos sociétés», poursuit M. van der Linden. “Dans tous les domaines, des gens utilisent des méthodes d’apprentissage automatisées pour tenter de trouver des solutions à ces problèmes fondamentaux.”

Espoir ou danger? Ce que l’IA peut et ne peut pas faire

Parallèlement à cet optimisme, de vives inquiétudes existent à propos de l’IA et des dommages qu’elle pourrait induire. Quelques-unes des principales préoccupations découlent d’une méconnaissance quant à ce que les systèmes peuvent et ne peuvent pas faire. Même si plusieurs tâches sont mieux exécutées par l’IA que par l’humain, la presque totalité du travail effectué par un système l’utilisant doit être supervisée par un humain. Si l’IA peut assurément nous aider à prendre de meilleures décisions, nous ne sommes absolument pas près à transférer cette responsabilité à des algorithmes ou à des machines.

«Des gens prétendront que l’IA possède un bon jugement, mais nous ne sommes pas encore rendus là», déclare Kathryn Hume, vice-présidente de la stratégie chez integrate.ai, une startup qui a créé une plateforme logicielle basée sur l’IA et qui procure aux entreprises une croissance des revenus quand elles utilisent l’intelligence collective du consommateur. «C’est très utile pour la reconnaissance et les classifications, et aussi parfois pour des prédictions », affirme-t-elle. « Mais ça ne peut pas exécuter tout ce qui implique une réflexion analogique entre l’option A et l’option B, tout ce qui implique un esprit de synthèse ou des questions de jugement. »

Kathryn Hume et d’autres spécialistes en intelligence artificielle, comme le pionnier de l’apprentissage profond Yoshua Bengio, décrivent davantage les systèmes d’intelligence artificielle comme de savants idiots plutôt que comme des hommes de la Renaissance. Tandis que les systèmes en IA ont prouvé leur efficacité en automatisation des tâches précises, lesquelles peuvent sembler géniales (diagnostiquer le cancer par exemple), ce sont généralement les sous-parties des tâches réalisées par des humains qui requièrent une intelligence très affinée : choisir entre ceci ou cela ? L’extrapolation et le jugement ne font pas partie du registre de l’IA — elle se contente d’analyser de grands bassins de données et de déterminer des programmes aptes à générer des conclusions ou des prédictions. En d’autres termes, pour les humains qui l’utilisent, l’intelligence artificielle s’avère plus un bon assistant plutôt qu’un remplaçant. Certains utilisent le terme “centaur” pour décrire cette combinaison du meilleur de l’humain et des machines, comme le champion d’échec Garry Kasparov.

L’exemple du diagnostic du cancer est révélateur, car c’est en intégrant les données de l’intelligence collective collectées au fil de l’histoire des patients — en capturant les connaissances de milliers de médecins et de radiologistes pour déterminer une moyenne statistique — que l’intelligence artificielle est parvenue à se confondre avec l’activité humaine. Cette analyse d’informations aide l’oncologue ou le radiologue dans leurs diagnostics en identifiant les tendances (ici, la prolifération cancéreuse) parmi des milliers d’images médicales, tâche qui nécessiterait des années de recherche à un humain. Dans ce cas, comme dans bien d’autres aussi, le programme en IA est entraîné à effectuer une tâche très précise — la reconnaissance d’images, de schémas de parole ou de langage — mais il ne comprend pas réellement les données qu’il analyse.

Modèles biaisés, données biaisées, résultats biaisés

Comme les modèles utilisant l’IA sont programmés à traiter des données, il faut absolument que les entreprises et les scientifiques qui les génèrent s’assurent que leurs ensembles de données soient précis et non biaisés, et que les algorithmes qui les entrainent ne reposent pas sur des hypothèses fausses ou périmées.

«Par défaut, les systèmes d’apprentissage automatique sont basés sur l’hypothèse que l’avenir peut et doit ressembler au passé, car ils sont configurés à partir de données», selon Hume. «Dans le domaine de la mécanique céleste, où le soleil tourne autour de la Terre, ça ne pose pas de problème. Par contre, ça n’est pas idéal dans le domaine des relations humaines normatives, car nous ne souhaitons habituellement pas que l’avenir ressemble au passé. “

Pour le développement d’affaires des entreprises, Kathryn Hume souligne que, bien souvent, le segment de marché qui est techniquement très mal couvert pourrait s’imposer comme la parfaite nouvelle cible. «Si vous constatez que votre système d’apprentissage automatique nuit à la précision des prévisions concernant les femmes afro-canadiennes, cela signifie que ce segment de marché a été mal desservi», affirme-t-elle. Dans de tels cas, identifier et corriger des biais peuvent s’avérer commercialement rentable.

Dans d’autres domaines, les soins de santé et les véhicules autonomes par exemple, l’emploi de données biaisées ou imprécises ne constituent pas qu’une mauvaise pratique : ça peut être fatal. Lors de la transition de pilotes humains à des systèmes de navigation en intelligence artificielle, et afin de minimiser les accidents, il est essentiel que les scientifiques des données comprennent parfaitement le fonctionnement des modèles de familiarisation et où se produisent les schémas de discrimination.

«Si l’erreur est répartie de manière uniforme et qu’une réduction du nombre de décès est notée, alors je pense que nous pouvons affirmer que ce modèle fonctionne en toute impartialité», signale van der Linden. «Mais si nous constatons une concentration dans la distribution des erreurs (par exemple si une infrastructure déficiente ou un manque de données laissent croire que les décès sont plus fréquents en milieux urbains ou dans certaines classes socio-économiques ou communautés) et que celles-ci ne sont pas réparties de façon aléatoire, alors il y a un problème. “

Afin de solutionner ces problèmes de biais, les dirigeants et les scientifiques des données dans les entreprises actives en IA devront changer leur façon de penser. Des échanges doivent avoir lieu entre les dirigeants, les équipes juridiques et les membres de groupes restreints ou de personnes ayant des opinions différentes, pour potentiellement espérer identifier des lacunes dans les données ou des biais que l’équipe n’aurait pas identifié dans les modèles. Et s’il manque des données démographiques dans les ensembles de données, c’est à l’entreprise de déterminer comment obtenir ces données et les intégrer ensuite aux modèles.

Mais à qui appartiennent ces données?

On a surnommé les données « le nouveau pétrole » pour une bonne raison : elles ont beaucoup de valeur et doivent être raffinées pour être utilisées. Mais là où les données différent drastiquement du pétrole, c’est qu’il ne semble pas y avoir de limite à la quantité de données que nous pouvons produire, il en coûte beaucoup moins cher pour les stocker et leur utilité s’accroit avec l’utilisation. Actuellement, les géants de l’Internet contrôlent une quantité disproportionnée de données qui circulent dans le monde et ils sont les seuls à en récolter les fruits. Mais que se passerait-il si on incitait ces entreprises à opérer de façon plus ouverte et à être plus collaboratives? Et si elles ne pouvaient plus utiliser à leur guise les données qu’elles accumulent? Et si on instaurait des politiques qui garantiraient une redistribution équitable de la richesse, mais aussi un accès aux données ouvert et juste ?

Integrate.ai et Delphia, en collaboration avec plusieurs autres entreprises et groupes de recherche focalisés sur l’IA, réfléchissent à ces problématiques de partage de données et de la façon de développer des systèmes ouverts pour des entreprises qui n’ont pas le même accès aux données que les géants de l’Internet.

integrate.ai travaille à la création d’un système d’échange de connaissances garant de la confidentialité et qui permettrait à deux entreprises de bénéficier des données de l’autre sans avoir à les partager directement. «L’objectif sociétal qui sous-tend ce projet est d’aider les entreprises traditionnelles à partager leurs données afin de pouvoir compétitionner avec les géants de l’Internet grand public», a déclaré Hume. «Ça remet en question les hypothèses habituelles selon lesquelles les données doivent être stockées et protégées afin d’offrir une valeur ajoutée, et ça offre de nouvelles possibilités de partenariat et de collaboration avec les grandes marques de services aux consommateurs.»

Chez Delphia, l’approche est différente : la clé de la valeur des données réside dans l’utilisation et la propriété. «Nous voulons donner aux gens la maîtrise de leurs propres données», déclare Cliff van der Linden. «Les Canadiens ont la mauvaise habitude d’exporter des matières premières afin qu’elles soient raffinées, et ensuite payer dix fois le prix pour acheter les produits transformés. Ça n’est pas différent avec les données, car il existe des bourses de données qui vendent vos données brutes pour que des entreprises les exploitent et, une fois transformées, vous ne recevez qu’une infime partie de leur valeur. »

L’approche adoptée par Delphia consiste à agir comme une «raffinerie de données». Tout en sécurisant les données des utilisateurs, l’entreprise crée des produits dérivés qu’elle commercialise avec un bon profit, lequel est redistribué aux individus participants. En modifiant la compréhension que les gens ont des données, de quelque chose qui est produit simplement pour exister dans un monde numérique ou réel, mais dont les gens ne retirent rien, à un produit ou service qui rémunère le citoyen, les revenus possiblement réalisés pourraient compenser la disparition d’emplois que l’IA entrainera.

«J’espère qu’en démontrant que ce modèle fonctionne, le bon sens commun devrait prévaloir et permettre aux utilisateurs d’être partie intégrante de l’équation et d’affirmer : « Vous avez ces données sur moi, mais vous devez avoir mon consentement pour les utiliser. Et si j’accepte que vous les utilisiez, je devrais être rétribué en retour et parfaitement informé sur la façon dont vous les utilisez, “, signale van der Linden.

Droits des données et contrats sociaux

Alors, qu’est-ce qui va provoquer le transfert de la propriété et de la rétribution pour les données?

Kathryn Hume entrevoit un retour à d’anciennes préoccupations relatives au contrat social et aux droits. Dans un monde qui fourmille de capteurs de données et où nous amplifions sans cesse notre empreinte numérique, il est important que de plus en plus de gens commencent à réfléchir au statut politique et économique de nos données. «Je pense que ça représentera une transformation consumériste — une transformation de la façon de penser», dit-elle. « Plus les gens seront informés sur le fonctionnement de ces technologies et plus les consommateurs seront conscients de la valeur de leurs données personnelle, alors ils vont commencer à questionner : « Devrions-nous être rémunérés pour cette contribution ? Pouvons-nous être payés pour notre apport à ce monde? “

Van der Linden estime pour sa part que, même si on n’a pas encore connu une vague massive d’activistes militant pour la défense des droits des données, le scandale Facebook / Cambridge Analytica et l’avènement du RGPD (GDPR) ont mené à une transformation dans la réglementation entourant des données et dans la perception du public à ce propos.

Il affirme aussi que « Continuer à être conscient de la situation, à être actif, à participer aux mouvements sociaux qui demandent aux entreprises la transparence, à agir en prenant ses distances ou en se retirant d’organisations qui n’honorent pas cette relation collaborative, mutuellement bénéfique et transparente : voici selon moi des actions qui permettent aux grandes entreprises de réaliser que la Terre bouge sous leurs pieds et qu’elles n’ont aucune idée où elles vont retomber. Nous voulons nous assurer qu’elles ne se rétablissent pas avant de s’être entendues sur une relation éthique, réciproque et transparente avec leurs utilisateurs. »

Redistribuer les retombées

Afin de s’engager vers un avenir où les avantages de l’IA sont répartis équitablement entre les gens, la société doit modifier sa façon d’évaluer les retombées économiques qu’elle génère. Alors que la technologie évolue à toute vitesse, van der Linden et Hume pensent qu’il revient aux entreprises et universitaires, qui sont aux avants postes des technologies émergentes, d’amorcer et nourrir la réflexion sur les bénéfices.

«Je pense qu’un travail philosophique et économique doit absolument être effectué, et ce dès maintenant, pour bien comprendre les tenants et aboutissants de cet actif. Est-ce que cela relève des droits de l’homme? Quel est le statut politique et économique de nos données? », s’interroge Hume.

«Cela implique de travailler étroitement avec les législateurs pour s’assurer qu’ils comprennent bien les technologies émergentes et leurs implications», note van der Linden. «Ces intervenants peuvent permettre de trouver un chemin optimal pour façonner avenir rentable et bénéfique pour les personnes qui ont investi en elles et qui les utilisent afin d’améliorer la condition humaine, non pas de poursuivre l’exploitation de certains pans de la société. »

Alors que l’intelligence artificielle est en voie de devenir aussi répandue que les technologies mobiles, il est indéniable que doivent changer notre façon de voir nos données, la valeur que cette technologie génère et la façon dont elle peut être utilisée pour optimiser les systèmes de tous les secteurs industriels. Des entreprises qui ont comme mission de propulser l’IA, comme Delphia, integrate.ai, Element AI, Mindbridge, Swift Medical, BenchSci, XpertSea, Invivo AI et bien d’autres, utilisent la puissance de l’intelligence artificielle pour démocratiser, optimiser et améliorer le monde des affaires, les soins de santé, la recherche biomédicale, l’aquaculture et une foule d’autres domaines.

L’IA nous permet d’espérer qu’elle améliorera sensiblement l’état du monde. En veillant à ce que les simples citoyens et les utilisateurs aient le contrôle sur leurs données, et qu’ils comprennent ce que les systèmes en intelligence artificielle peuvent faire ou non, tout en s’assurant que le monde des affaires et les gouvernements évoluent vers la transformation technologique en ayant le bien-être collectif en tête, il est possible d’envisager la création d’un monde meilleur et plus équitable pour tous. C’est notre responsabilité de veiller à ce que les scénarios les plus optimistes soient ceux qui prévalent.