Ce qui change à l’heure de l’IA Générative

French Tech Corporate Community
10 min readAug 5, 2024

--

Dans un entretien accordé à la Nouvelle Revue Française, l’auteur des Versets sataniques, Salman Rushdie, exprime son absence d’inquiétude concernant l’impact de l’IA générative sur la création de textes et écarte une quelconque originalité de l’IA générative. “Le système se contente d’assimiler d’énormes quantités de texte et d’en donner une nouvelle version. On ne peut y trouver aucune originalité.”

Qu’elles soient sceptiques ou enthousiastes, il faut voir dans l’abondance et la diversité des réactions à l’utilisation de ChatGPT et autres IA génératives la démonstration des changements qu’elles apportent et de leur impact bien au-delà des cercles habituels de la technologie. Le contraste est marqué avec les générations précédentes d’intelligences artificielles, essentiellement prédictives, qui faisaient généralement l’objet d’articles ou de thèses restreints au champ de la recherche et de l’innovation.

Pour les entreprises aussi, les intelligences artificielles génératives se distinguent des intelligences artificielles précédentes. Si on les rapproche des technologies les plus comparables telles que le Natural Language Processing (NLP) pour les corpus de textes où le Computer Vision pour les données audio-visuelles, les IA génératives sont porteuses de quatre grands changements dont les entreprises ont pris conscience au fil des expérimentations en cours.

D’abord, par rapport aux IA précédentes, les IA génératives permettent d’accélérer considérablement le déploiement de cas d’usage dans le sens où elles permettent d’accélérer leur preuve de concept. Ensuite, elles ouvrent un nouveau champ des possibles en permettant une valorisation plus simple, plus efficace et moins coûteuse des données non structurées. De plus, les résultats obtenus avec les IA génératives sont aussi nouveaux par leur qualité, leur quantité et leur diversité en comparaison avec les modèles jusqu’alors utilisés. Tous ces éléments imposent de composer avec des attentes exacerbées des utilisateurs finaux, nourris par la publicité autour de cette technologie. Nous développons ces quatre points ci-dessous.

L’IA générative permet de tester plus rapidement la valeur ajoutée par un cas d’usage

Dans le domaine de l’IA générative, le déploiement des cas d’usage est souvent plus rapide et moins laborieux qu’avec les IA précédentes. L’approche adoptée avec l’IA générative est fréquemment comparée à l’assemblage de Legos, où les composants préexistants peuvent être combinés pour créer de nouveaux résultats. Cette facilité d’expérimentation et de mise en œuvre peut permettre des cycles de développement plus courts. A laquelle s’ajoute un mode d’interaction conversationnel avec les utilisateurs qui accélère également l’adoption.

On peut réduire un cas d’usage data à une problématique business, des données, un modèle et un prompt. Traditionnellement, la création et l’optimisation du modèle représentent la partie la plus complexe et chronophage du processus. Avec l’IA générative, cette étape devient plus simple. L’IA générative fournit des modèles pré-entrainés prêts à l’emploi, permettant ainsi aux entreprises de bénéficier d’une expertise avancée sans avoir à investir de temps considérable dans le développement et l’affinage des modèles. Concrètement, les modèles (tels que GPT 4.0 d’Azure) sont accessibles “on-demand” ou peuvent être déployés via des APIs (tel que BARD pour Gemini Pro de Google). Certains fournisseurs proposent même des modèles spécialement fine-tunés pour évoluer sur des domaines spécifiques, tels que la génération de textes juridiques, médicaux ou financiers.

Le modèle déjà déployé, il ne reste donc “plus qu’à” grounder le modèle d’IA générative, c’est-à-dire à ancrer les résultats générés par le modèle à des informations du monde réel, à contraindre le modèle à répondre dans un périmètre. Cela implique donc souvent d’ajouter des contraintes ou des informations supplémentaires au modèle afin de le guider vers la production de résultats qui sont cohérents et pertinents dans un contexte spécifique. Mais cela n’a rien à voir avec le temps nécessaire pour entraîner les modèles d’IA jusqu’alors utilisés.

Prenons l’exemple d’un cas d’usage d’analyse de verbatims dans les centres d’appels pour illustrer notre propos. D’après une étude Artefact, pour développer ce type de cas d’usage à l’aide de modèles basés sur des IA précédentes, il fallait compter généralement 3 à 4 semaines à partir du moment où les données étaient récupérées et rendues exploitables. Aujourd’hui, grâce à l’IA générative, ce processus ne prend plus qu’1 semaine, soit un facteur d’accélération de plus de 3. Le principal enjeu étant de choisir la classification métier appropriée pour adapter le modèle.

L’IA générative permet d’étendre le champ de l’IA à des données jusqu’alors peu ou mal utilisées

Certains champs de pétrole sont exploitables seulement lorsque le cours du pétrole s’envole. On peut appliquer ce même principe à la data. Certaines données non structurées peuvent désormais être valorisées grâce à l’IA générative. Et c’est tout un nouveau champ de données exploitables pour l’entraînement ou le fine-tuning des modèles qui s’ouvre. Comme autant de perspectives pour des applications spécialisées dans des domaines spécifiques.

Et une promesse qui pointe : celle d’IA génératives capables de traiter et combiner dans leurs apprentissages n’importe quels types de données. Et la possibilité de s’épargner le lourd et fastidieux travail de structuration et mise en qualité des données des entreprises pour les rendre exploitables. Promesse non encore tenue de ce que nous observons à date.

L’IA générative a, d’une part, bénéficié d’une réelle rupture via les mécanismes d’attention. Ainsi que de la puissance toujours plus importante — et nécessaire — des machines.

Les mécanismes d’attention fonctionnent un peu comme la capacité d’une personne à se concentrer sur une partie importante d’une image ou d’un texte lorsqu’elle essaie de comprendre ou de créer quelque chose. Imaginez que vous essayez de dessiner un paysage à partir d’une photo. Plutôt que de regarder toute l’image en même temps, vous vous concentrez sur des parties spécifiques qui semblent importantes, comme les montagnes ou les arbres. Cela aide à mieux comprendre les détails importants et à créer un dessin plus précis. De manière similaire, les mécanismes d’attention permettent au modèle de se concentrer sur des parties spécifiques d’une image ou d’un texte lorsqu’il génère du contenu. Plutôt que de traiter toute l’entrée en même temps, le modèle peut se concentrer sur les parties les plus pertinentes et importantes pour produire des résultats plus précis et significatifs. Cela lui permet d’apprendre à créer des images, du texte ou d’autres types de contenu de manière plus efficace et réaliste.

Les mécanismes d’attention se parallélisent très bien. L’utilisation de plusieurs mécanismes d’attention permet de fournir une représentation plus riche et plus robuste des données, ce qui conduit à des performances améliorées dans diverses tâches, telles que la traduction automatique, la génération de texte, la synthèse vocale, la génération d’images, et bien d’autres encore.

Dès lors, des cas d’usages qui semblaient impossibles il y a peu sont devenus tout à fait accessibles. C’est par exemple le cas des décomptes de temps de parole dans les médias lors des campagnes présidentielles. Il y a 2 ans encore, calculer précisément les temps de parole de chaque candidat était une opération fastidieuse. Opération rendue accessible aujourd’hui grâce à l’utilisation de l’IA générative.

Sur les capacités de calcul, il y a 6 ans déjà, OpenAI publiait une analyse montrant que depuis 2012, la quantité de calcul utilisée dans les plus importants entraînements d’IA augmentait de façon exponentielle avec un temps de doublement de 3,4 mois (à titre de comparaison, la loi de Moore affichait une période de doublement de 2 ans). Depuis 2012, cette mesure a été multipliée par plus de 300 000 (une période de doublement de deux ans ne produirait qu’une augmentation de 7 fois).

Les modèles d’IA générative nécessitent souvent d’énormes quantités de puissance de calcul pour l’entraînement et ce d’autant que les modèles se veulent généralistes et nécessitent de grandes quantité de contenus pour s’entraîner. Des ressources informatiques puissantes, telles que des GPU ou des TPU haut de gamme, sont nécessaires pour traiter de grands ensembles de données et exécuter des algorithmes d’optimisation complexes. Ainsi, le nouveau GPU NVIDIA A100 Tensor Core semble fournir une accélération sans précédent. Selon Nvidia, l’A100 offre des performances jusqu’à 20 fois supérieures à celles de la génération précédente et peut être partitionné en sept instances de GPU pour s’adapter dynamiquement aux demandes changeantes. Elle présenterait également la bande passante mémoire la plus rapide au monde avec plus de 2 téraoctets par seconde (TB/s) pour faire tourner les modèles et les ensembles de données les plus volumineux.

Il convient de rappeler que les améliorations en matière de calcul ont été un élément clé des progrès de l’Intelligence Artificielle. Aussi, tant que cette tendance se poursuivra, il convient de se préparer aux implications de systèmes qui dépassent largement les capacités d’aujourd’hui et qui permettront encore de repousser les limites. Tout en pondérant la valeur apportée par ces systèmes aux coûts qu’ils induisent, notamment en terme énergétique et environnemental. Nous aborderons ces points dans un prochain article.

L’IA générative améliore la diversité, la qualité et la quantité des résultats obtenus

L’IA générative se distingue nettement des IA précédentes par son impact sur les résultats générés par ses modèles. Non seulement la quantité des résultats générés est accrue, mais la qualité et la diversité sont également améliorées. Tous ces aspects positifs doivent tout de même être nuancés par une reproductibilité moindre des modèles d’IA générative.

Considérant l’image d’un puzzle, l’analyse de données est comparée à son assemblage, où chaque donnée représente une pièce à agencer pour révéler une image cohérente. L’IA joue un rôle crucial en tentant de compléter les données manquantes, en utilisant les informations disponibles pour deviner et recréer ces pièces manquantes. L’IA générative va au-delà de la simple complétion des données existantes en créant de nouvelles données, inspirées de celles déjà disponibles. Ce processus élargit les possibilités d’analyse et permet de découvrir de nouvelles informations à partir des données existantes, mettant ainsi en avant l’aspect génératif.

Contrairement aux générations d’IA précédentes, qui ont tendance à produire des résultats souvent similaires, les modèles d’IA générative sont capables de générer une plus grande diversité de résultats en explorant différentes variations et alternatives. Cette diversité accrue permet de générer des contenus plus riches et plus diversifiés, passant ainsi du quantitatif au qualitatif et couvrant un éventail plus large de besoins et de préférences.

OpenAI était récemment en incursion à Hollywood pour présenter son dernier modèle nommé “Sora” capable de générer des vidéos à partir de texte. “Entendre dire que cela peut faire toutes ces choses, c’est une chose, mais voir réellement les capacités, c’était stupéfiant”, a déclaré Mike Perry, producteur à Hollywood, soulignant ainsi la diversité et la qualité des capacités offertes par l’IA générative.

Cependant, du fait de leur capacité à explorer un espace de possibilités plus large, les modèles d’IA générative peuvent être moins reproductibles que les IA précédentes et la précision des résultats en est affectée. Concrètement, il est plus difficile de reproduire exactement les mêmes résultats à chaque exécution du modèle, ce qui peut poser des défis en termes de fiabilité et de prédictibilité dans certaines applications critiques.

Cette limite constitue un grand défi pour les applications des IA génératives qui nécessitent des réponses précises. Et c’est un champ sur lequel les entreprises travaillent dans leurs développements actuels : spécialiser au mieux les modèles sur des domaines très spécifiques pour améliorer la précision des réponses, combiner la robustesse des modèles de règles ou des requêtes sur données structurées avec la simplicité d’utilisation et d’interaction avec les utilisateurs des IA génératives en branchant ces dernières en sorties des premiers.

Attentes plus fortes des utilisateurs finaux

Lorsque l’on aborde la gestion des attentes et le rapport à la technologie chez les utilisateurs finaux, l’IA générative présente un certain nombre de défis spécifiques. En effet, en raison de sa capacité à produire des résultats rapidement, l’IA générative peut susciter des attentes particulièrement élevées. À l’inverse, l’apparition d’hallucinations et de résultats indésirables peuvent grandement briser la confiance que placent les utilisateurs dans ces solutions.

L’IA générative est capable de produire des résultats rapidement et de manière automatisée, ce qui peut donner l’impression aux utilisateurs finaux que la technologie est capable de résoudre tous leurs problèmes de manière instantanée et efficace. Cela peut entraîner des attentes disproportionnées quant aux capacités réelles de l’IA générative, et qui peut conduire à la déception si les résultats ne répondent pas pleinement à ces attentes élevées.

L’IA générative n’est bien entendu pas parfaite et peut parfois produire des résultats imprévus ou indésirables, tels que des contenus incohérents, faux ou inappropriés. L’apparition de ces résultats indésirables peut entraîner une perte de confiance de la part des utilisateurs finaux dans la technologie, remettant en question sa fiabilité et son utilité. Cela peut également susciter des inquiétudes quant à la sécurité et à la confidentialité des données lorsque des résultats imprévus compromettent l’intégrité des informations générées par l’IA générative.

En février 2023, le chatbot Bard de Google (rebaptisé Gemini) a fourni des informations erronées lorsque interrogé sur les découvertes du télescope spatial James Webb de la NASA. Il a affirmé à tort que le télescope avait pris les premières photos d’une exoplanète. Cependant, cette affirmation est incorrecte, car les premières photos d’une exoplanète remontent à 2004, tandis que le télescope James Webb n’a été lancé qu’en 2021 (source : équipe CNET France, 2024).

Il est ainsi clé que les utilisateurs finaux des systèmes d’IA générative soient conscients de leurs limites. Ainsi, la plupart des entreprises qui déploient ces solutions s’emploient à accompagner les utilisateurs dans leurs usages : formation à l’art du prompting, explication des limites de ces systèmes, des attentes qu’on peut en avoir ou pas, rappels des règles applicables en terme de protection des données.

Plus d’un an après la publication de ChatGPT, les attentes suscitées par cette nouvelle technologie sont toujours aussi vives. Mais la valeur associée tarde à se traduire par des cas d’usages tangibles. Nous couvrirons dans notre prochain article les sujets relatifs à l’adoption de la technologie par les entreprises et à sa diffusion au sein de l’organisation.

Vous souhaitez verser une contribution sur ces sujets ? Contactez-nous !

Le présent article est publié pour le compte de la FTCC avec la contribution gracieuse des participants au chantier.

Il est important de souligner que les points de vue et opinions exprimés dans ce document sont ceux des contributeurs individuels ou du groupe de travail dans son ensemble. Ces points de vue reposent sur leurs propres perspectives et expériences, et ne reflètent pas nécessairement les opinions, les politiques ou les positions officielles des entreprises ou organisations auxquelles les auteurs peuvent être affiliés ou employés.

Sous le pilotage de :

  • Guiraude Lame — Chief Data Officer — Natixis
  • Antoine Le Feuvre — VP Digital Solutions — Suez

Avec la participation de :

  • Pierre Chehwan — VP international — Aleia
  • Soufiane Eddamani — Senior Data Scientist / Machine Learning Engineer — Suez
  • Fabien Faivre — Data Office, Responsable R&D et Innovation Data — Macif
  • Cédric Gardelle — Head of Digital Innovation — Engie
  • Christine Gasparini — Data Manager France — Transdev Group
  • Andres Lopez-Vernaza — Chargé de Mission auprès du Chief Digital Officer — Banque de France
  • Vincent Luciani — Co-founder & Global CEO — Artefact
  • Hanan Ouazan — Partner — Artefact
  • Adrien Pestel — Chief Technology Officer — Claranet
  • Laurent Verhoest — Chief Data Officer — Transdev Group

Et la rédaction de :

  • Edmond Irani — Data Consultant — Artefact
  • Jean-Baptiste Briot — Senior Data Consultant — Artefact
  • Arthur Duthoit — Manager — Artefact

--

--

French Tech Corporate Community

Communication account used by the IA Generative workstream in the French Tech Corporate Community