Présentation
RÉSUMÉ
L’intelligence générative est une branche de l’intelligence artificielle (IA) qui tend à fournir une production (texte, image, vidéo, musique) à partir d’un court texte descriptif (appelé prompt). Les modèles de base de tels systèmes sont des réseaux neuronaux profonds dont l’apprentissage nécessite des quantités très importantes de données de différents types selon la production désirée. Les performances obtenues par ces systèmes (tels ChatGPT pour la production de textes) atteignent des niveaux jusqu’à présent inégalés.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleABSTRACT
Generative artificial intelligence is a special case of artificial intelliegnce (for short AI) which aims at producing text, image, video or music from a short description (a prompt). The basic models underlying such systems are deep neural nets. The learning process of deep neural nets necessitate huge amount of training data of different types, according to the type of desired output. The performance reached (such as texts for ChatGPT) are of very high level.
Auteur(s)
-
Jean-Paul HATON : Professeur émérite - LORIA – Université de Lorraine
INTRODUCTION
L’intelligence artificielle (IA) est née au cours des années 1950, sous l’impulsion de pionniers notamment John McCarthy, Marvin Minsky, Claude Shannon. Son but est d’implanter sur ordinateur des systèmes simulant des fonctions réputées intelligentes : reconnaissance de la parole et des images, raisonnement, prise de décision, etc.
De tels systèmes se fondent sur différents types de modèles, en particulier les réseaux neuronaux, ou neuromimétiques, qui tirent leur inspiration du modèle cortical humain ou animal : un ensemble d’unités très simples (les « neurones ») en très grand nombre et fortement interconnectés. Un avantage majeur est leur capacité d’apprentissage à partir d’exemples. Vers 2010, des résultats spectaculaires dans de nombreux domaines (jeu de go, interprétation d’images, reconnaissance de la parole, traitement de la langue naturelle écrite, diagnostic) ont mis en lumière un type particulier de ces modèles : les réseaux neuronaux profonds (Deep Neural Networks).
La caractéristique de tels modèles est d’être formés d’un nombre important de couches de neurones pouvant atteindre plusieurs centaines. L’apprentissage profond de ces modèles nécessitent à la fois trois conditions :
-
des algorithmes performants (amélioration de la rétropropagation du gradient d’erreur) ;
-
des moyens de calcul parfois considérables (processeur spécialisés tels que ceux de la firme Nvidia) ;
-
la disponibilité de quantités importantes de données d’apprentissage, notamment les big data, ces données numériques que nous produisons tous quotidiennement de façon massive (messages vocaux et écrits, signaux GPS, informations climatiques, achats, transactions bancaires, publications scientifiques, journaux et revues, etc.)
Parmi ces réseaux neuronaux profonds, un modèle s’est révélé particulièrement performants. Il s’agit des réseaux convolutifs, conçus initialement pour l’image et étendu ensuite à de nombreux domaines d’application.
L’IA générative utilise les réseaux neuronaux profonds pour produire à la demande un texte, une image, une vidéo, une musique, etc. Cette production résulte d’une courte description textuelle appelée prompt. Cet article présente les différents types de modèles d’IA générative et décrit leur fonctionnement. Les domaines de l’écrit (notamment ChatGPT) et de l’image (tel que MidJourney) sont particulièrement considérés.
VERSIONS
- Version archivée 1 de sept. 1995 par Xavier PERRAS
DOI (Digital Object Identifier)
CET ARTICLE SE TROUVE ÉGALEMENT DANS :
Accueil > Ressources documentaires > Technologies de l'information > Documents numériques Gestion de contenu > Gestion de contenus numériques > L’intelligence artificielle générative > Bref historique
Accueil > Ressources documentaires > Technologies de l'information > Technologies logicielles Architectures des systèmes > Intelligence artificielle > L’intelligence artificielle générative > Bref historique
Accueil > Ressources documentaires > Technologies de l'information > Le traitement du signal et ses applications > Gestion audio, images et vidéo numériques > L’intelligence artificielle générative > Bref historique
Cet article fait partie de l’offre
Innovations technologiques
(177 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
1. Bref historique
L’histoire des réseaux de neurones commence, comme celle de l’informatique, dans les années 1940 [H 3 720]. Notons quelques grandes étapes :
-
en 1943, W. Mc Culloch et W. Pitts proposent un modèle formel du neurone encore présent dans tous les systèmes neuronaux actuels ;
-
en 1957 F. Rosenblatt conçoit le perceptron monocouche ;
-
en 1986 Y. Le Cun et D.E. Rumelhart proposent séparément le perceptron multicouche, extension du perceptron monocouche, et l’algorithme associé d’apprentissage par rétropropagation du gradient d’erreur ;
-
dans les années 2000, les réseaux neuronaux profonds obtiennent des performances exceptionnelles, parfois supérieures à l’humain ;
-
vers 2015, l’IA générative, fondée sur les réseaux neuronaux profonds, apparaît dans les domaines de l’image et du texte.
Cet article fait partie de l’offre
Innovations technologiques
(177 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Bref historique
BIBLIOGRAPHIE
-
(1) - LE CUN (Y.) - Quand la machine apprend, la révolution des réseaux de neurones et l’apprentissage profond – - Odile Jacob (2021).
-
(2) - HATON (J.-P.) et al - Intelligences artificielles : de la théorie à la pratique – - Dunod (2023).
-
(3) - GOODFELLOW (I.) et al - Generative Adversarial Networks. - Advances in Neural Information Processing Systems, 27 (2014).
-
(4) - SOHL-DICKSTEIN (J.) et al - Deep unsupervised learning using non equilibrium thermodynamics. - Proc. 32nd Int. Conf. on Machine Learning, Lille, France (2015).
-
(5) - RAMESH (A.) et al - Hierarchical Text-Conditional Image Generation with CLIP Latents. - (2022) arXiv.org: 2204.06125.
-
(6) - NICHOL (A.) et al - Point·E: A System for...
Cet article fait partie de l’offre
Innovations technologiques
(177 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive