Le générateur GPT-3 d’OpenAI : Impacts technologiques, sociétaux, éthiques et l’effet ELIZA
La sortie du générateur GPT-3 a suscité un véritable engouement dans le monde. Mais quels sont les véritables enjeux de GPT-3 ? Et que nous dit cette “hype” sur notre rapport à l’IA ? Analyse de Laurence Devillers, Ethical Advisor chez AI for Tomorrow.
L’entreprise OpenAI, créée par Elon Musk en 2015 avec Amazon et Microsoft et bien d’autres est spécialiste de la recherche en intelligence artificielle notamment sur le traitement automatique du langage naturel. OpenAI a ouvert en juillet 2020 la version 3 de son modèle de génération du langage naturel baptisé GPT-3 en bêta privée. GPT-2 était déjà « le top » pour modéliser certains niveaux de langage, comme le résumé et la traduction. Mais à l’époque en 2019 (Etait-ce un effet de marketing ?), ce programme révolutionnaire n’était pas dévoilé au public en raison « des inquiétudes sur les utilisations malveillantes de cette technologie », avait expliqué les chercheurs d’OpenAI ! GPT-3, version améliorée de GPT-2, est le modèle de langage le plus puissant jamais construit, il compte 175 milliards de paramètres quand GPT-2 n’en n’avait que 1,5 milliard à sa sortie. GPT-3 a avalé des milliards d’informations sur Internet, les recoupe entre elles et les retranscrit selon la demande, sans pour autant « abstraire et raisonner » par lui-même, donnant une réponse mécanique lorsqu’il se trouve face à une question. De nombreux développeurs ayant eu accès à la bêta privée de GPT-3 se sont empressés de tester ses limites et de crier au génie.
D’un point de vue technologique, les performances du traitement du langage ont été nettement améliorés au cours de ces dernières années principalement en génération et en traduction. Les modèles linguistiques ont un large éventail d’applications bénéfiques pour la société, notamment l’auto-complétion de code et d’écriture, l’assistance grammaticale, la génération de récits de jeux, l’amélioration des réponses des moteurs de recherche et la réponse aux questions. Bien qu’il y ait encore de nombreux défis comme la compréhension située, l’intégration du sens commun, d’un second degré ou de l’ironie, les entreprises utilisent activement ce type de générateurs dans les centres d’appels ou pour le recrutement par exemple.
D’un point de vue éthique, ces modèles ont également des applications potentiellement nuisibles. GPT-3 augmente par exemple la difficulté de distinguer le texte synthétique du texte écrit par l’homme. Il a donc le potentiel de faire progresser les applications tant bénéfiques que néfastes des modèles linguistiques. L’article « Language Models are Few-Shot Learners » écrit par Brown et al, d’OpenAI déposé sur arXiv en juillet 2020 se concentre sur trois questions éthiques principales sur GPT3 : le potentiel d’abus délibéré de modèles linguistiques, les questions de partialité, d’équité et de représentation dans les modèles et plus brièvement l’article aborde des questions d’efficacité énergétique. GPT-3 n’est par exemple pas encore capable de répondre à des questions farfelues et n’a pas encore appris à exclure de ses résultats les propos racistes, sexistes et haineux. Le NLP a encore du chemin à parcourir avant de devenir réellement doté de compréhension sémantique contextuelle intégrant les intentions de la personne et sachant ainsi répondre à des questions farfelues !
J’ajouterai une question éthique en plus, celle de l’abus non délibéré dû à l’anthropomorphisme, c’est-à-dire à la projection de capacités humaines sur ces machines. Lorsque vous parlez à un ordinateur, que ce soit un téléphone, un assistant vocal, ou un robot social et qu’il interprète ce que vous dites grâce à un modèle appelé NLU (Natural Language Understanding) et qu’il vous répond grâce à un modèle NLG (Natural Language Generating) comme GPT-3, c’est un système conversationnel. En général, l’agent conversationnel a également un système de reconnaissance de la parole, une ontologie (description des relations entre les différents agents du monde), une gestion d’une base de données ou/et un accès à internet, un système de dialogue, un gestionnaire du dialogue (historique) et un système de synthèse de la parole. C’est grâce à tous ces modules de traitement automatique du langage naturel qu’un système peut converser par écrit ou par oral.
Dans les systèmes conversationnels actuels, il y a souvent dissymétrie entre la capacité de compréhension qui n’est pas au même niveau que la génération de phrases en langage naturel comme celle de GPT-3. Du coup ce leurre pousse les utilisateurs à penser que le système est plus « intelligent » qu’il ne l’est et à projeter sur lui des capacités de compréhension qu’il n’a pas. Si la génération est de très bonne qualité, on peut parler d’effet ELIZA pour ces systèmes.
En informatique l’effet ELIZA désigne la tendance à assimiler de
manière inconsciente le comportement d’un ordinateur à celui d’un être
humain. Le grand public doit être plus méfiant face aux textes publiés
en ligne, face aux vidéos manipulées qui reproduisent la gestuelle et le
ton de voix d’une personne et face à ces assistants vocaux capables de
réponses quasi indiscernables d’un humain. A cet égard, il est crucial de mieux appréhender et comprendre les capacités des agents conversationnels. Pour parler des tensions éthiques des agents conversationnels, n’hésitez pas à répondre au questionnaire du Comité National Pilote d’Ethique du
Numérique (CNPEN).
Par ailleurs, il est intéressant de constater que GPT-3 vient d’être vendu sous licence exclusive à Microsoft (une position d’ailleurs critiquée par Musk lui même), mais reste soi-disant accessible. L’intégration de GPT-3 aux systèmes de Microsoft risque d’engendrer de nouvelles problématiques, notamment éthiques (rappelons nous de TAY de Microsoft)
Pour terminer cet article, la question fondamentale à se poser est également : Est-ce que toujours plus de données amènera à une performance de l’IA toujours plus forte ? L’homme peut généralement accomplir une nouvelle tâche linguistique à partir de seulement quelques exemples ou à partir de simples instructions — ce que les systèmes actuels de NLP (Natural Language Processing) ont du mal à faire sans avoir accès à des milliards de données.
Laurence Devillers
Professeur en IA Sorbonne Université/ responsable de la chaire HUMAAINE : HUman-MAchine Affective Interaction & Ethics au CNRS-LIMSI, membre du CNPEN et du GPAI
Auteure de « Les robots émotionnels : et l’éthique dans tout cela ? »
Devil@limsi.fr