top of page
Rechercher
Photo du rédacteurRedha Moulla

L'IA générative : enjeux et défis.

Dernière mise à jour : 1 nov. 2023

L'intelligence artificielle générative est sans doute le sujet le plus fascinant et le plus déroutant aujourd’hui dans les débats autour de l'IA. Elle suscite autant d'enthousiasme que d'inquiétude car, au-delà de la remise en question de nos modes de travail et de production, elle touche à nos conceptions mêmes de la notion de créativité, considérée jusque-là comme l'apanage de l'intelligence humaine.


Si l'IA générative a été largement popularisée par l'émergence de ChatGPT, il y a maintenant près d'un an, le sujet n'est en réalité pas nouveau ; il remonte même aux premières heures de l'IA, et les premiers systèmes capables de produire du langage étaient déjà là dès les années 60. Le chatbot Eliza, par exemple, est un modèle qui a été développé par Joseph Weizenbaum, vers le milieu des années 60, pour simuler un psychothérapeute. Bien qu'il fût très rudimentaire par rapport aux modèles dont on dispose aujourd'hui, il avait quand même rencontré un certain succès auprès des utilisateurs, dont une bonne partie le jugeait même comme très convaincant. Un peu plus tard, dans les années 1980, des modèles statistiques - les HMM (Hidden Markov Models) en particulier -, ont été utilisés pour générer des compositions musicales dans le style de certains musiciens classiques. Ainsi, la préoccupation artistique, également, a accompagné l'intelligence artificielle depuis ses premiers développements.


Qu'est-ce que l'intelligence artificielle générative ?


Il est commun de considérer qu'un modèle génératif est un système capable de créer des formes pertinentes. Ainsi, les modèles comme ChatGPT, Bard, Llama, Mistral... sont des modèles génératifs de texte ; Dall-e, Midjourney, Stable Diffusion... sont des modèles génératifs d'images, etc.


D'un point de vue technique, cependant, la notion de modèle génératif renvoie a quelque chose de plus précis. Il existe en machine learning deux catégories de modèles : les modèles génératifs et les modèles discriminatifs.


Les modèles discriminatifs tentent d’apprendre la frontière qui sépare les données (distinguer les chats des chiens, par exemple). Ils sont donc généralement utilisés pour des tâches comme la classification (classification d'images, de mails, etc.). Ils n'apprennent pas la distribution complète des données ; ils apprennent simplement la relation entre la variable prédite et les autres variables qui servent à prédire (que les data scientists appellent généralement les features).


Les modèles génératifs, en revanche, fonctionnent selon cette fameuse maxime attribuée à Richard Feynman – un physicien, sans rapport avec l’intelligence artificielle –, qui disait que « Ce que je ne peux pas créer, je ne le comprends pas ». Ces modèles apprennent ainsi à recréer les données sur lesquelles ils ont été entraînés. Plus précisément, ils cherchent à apprendre le modèle mathématique, généralement probabiliste, le plus à même de générer les données d’apprentissage. Une fois ce modèle appris, ils peuvent éventuellement générer de nouvelles données qui suivent la même distribution ; mais ils peuvent aussi être utilisés à d'autres fins, comme la classification. Certains modèles génératifs sont même en réalité incapables de générer de nouvelles données pertinentes : ils sont exclusivement utilisés pour la classification (comme les classifieurs bayésiens naïfs ou Naïve Bayes).


A l'ère du machine learning moderne, la notion de modèle génératif renvoie généralement à de gros modèles de deep learning utilisés pour apprendre la distribution des données d'entraînement. Une fois bien entraînés, ceux-ci peuvent ensuite générer de nouvelles données, semblables.


Cas d'usage


Comme les données textuelles sont omniprésentes, les modèles génératifs de langage offrent aujourd'hui nettement plus de leviers d'utilisation. Au-delà de l'usage classique comme un assistant personnel, les modèles génératifs de langage sont aujourd'hui intégrés à des applications concrètes en entreprise, qu'il s'agisse de la traduction de documents, la génération de code, l'amélioration de l'expérience client, etc. Mais le cas d'usage qui semble aujourd'hui rencontrer le plus de succès est ce que l'on désigne par RAG (pour Retrieval Augmented Generation). Il s'agit d'une sorte de moteur de recherche qui permet de retrouver une information dans une base de documents rédigés en langage naturel.


Dilemme de l'IA générative : explorer ou exploiter


Le dilemme entre l'exploration de nouvelles idées et l'exploitation de celles qui sont déjà là, à l'œuvre, est un problème classique, auquel fait face toute organisation innovante. Mais le rythme particulièrement soutenu des progrès en IA, la profusion des approches, des modèles et des outils pose ce dilemme d'une manière beaucoup plus accentuée. Les managers (CDO, directeurs data, etc.) peuvent facilement se sentir perdus dans ce paysage mouvant : en 2021, il fallait absolument être aux normes du MLOps pour garantir l'industrialisation des modèles produits par les data scientists ; en 2022, il fallait être data mesh pour mettre les données au plus près des métiers ; et, en 2023, c'est finalement dans l'IA générative (GenAI, IAGen,...) que réside le secret de la création de valeur ! Faut-il s'y mettre ? Par où commencer ? Utiliser une API déjà disponible, comme ChatGPT, ou bien un modèle open-source comme Mistral ? Pour ne rien arranger, les frontières mêmes entre l'exploration et l'exploitation ne sont pas si clair. Utiliser une API comme ChatGPT est a priori de l'exploration dans la mesure où les possibilités offertes ne sont pas encore bien déterminées (performances du modèle sur tel cas d'usage, coût, etc.). Mais cela peut également être vu comme de l'exploitation dans la mesure où, pour certains cas d'usage du moins, le modèle est déjà prêt et peut dispenser de construire un modèle "from scratch", avec toutes les incertitudes que cela suppose en termes de performances, coûts, etc.


Il n'y a évidemment pas une réponse générique pour tous ces défis. Cela dépend des spécificités de chaque organisation - son legacy, ses progrès dans la transformation, ses cas d'usage, etc. Mais il est évident que, sans agilité et sans vision claire, naviguer dans cette mer d'incertitudes peut s'avérer particulièrement délicat.

1 006 vues0 commentaire

Posts récents

Voir tout

La déraisonnable efficacité des LLMs

John McCarthy est très connu pour avoir inventé le concept d'intelligence artificielle ; mais il a également inventé un autre concept -...

Le mythe des servantes d'or

On peut faire remonter les origines de l'intelligence artificielle moderne à 1956, à la conférence de Dartmouth, où celle-ci a émergé en...

L'intelligence artificielle comme métier

Saint-Exupéry a écrit de très belles pages sur la dimension fondamentale du métier, non pas seulement comment un moyen de subsistance ou...

Comments


bottom of page