Article de référence | Réf : H3760 v2

Bref historique
L’intelligence artificielle générative

Auteur(s) : Jean-Paul HATON

Date de publication : 10 avr. 2024

Cet article offert jusqu'au 31/12/2024
Consulter en libre accès

Vous êtes déjà abonné ?Connectez-vous !

Sommaire

Présentation

RÉSUMÉ

L’intelligence générative est une branche de l’intelligence artificielle (IA) qui tend à fournir une production (texte, image, vidéo, musique) à partir d’un court texte descriptif (appelé prompt). Les modèles de base de tels systèmes sont des réseaux neuronaux profonds dont l’apprentissage nécessite des quantités très importantes de données de différents types selon la production désirée. Les performances obtenues par ces systèmes (tels ChatGPT pour la production de textes) atteignent des niveaux jusqu’à présent inégalés.

Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.

Lire l’article

Auteur(s)

  • Jean-Paul HATON : Professeur émérite - LORIA – Université de Lorraine

INTRODUCTION

L’intelligence artificielle (IA) est née au cours des années 1950, sous l’impulsion de pionniers notamment John McCarthy, Marvin Minsky, Claude Shannon. Son but est d’implanter sur ordinateur des systèmes simulant des fonctions réputées intelligentes : reconnaissance de la parole et des images, raisonnement, prise de décision, etc.

De tels systèmes se fondent sur différents types de modèles, en particulier les réseaux neuronaux, ou neuromimétiques, qui tirent leur inspiration du modèle cortical humain ou animal : un ensemble d’unités très simples (les « neurones ») en très grand nombre et fortement interconnectés. Un avantage majeur est leur capacité d’apprentissage à partir d’exemples. Vers 2010, des résultats spectaculaires dans de nombreux domaines (jeu de go, interprétation d’images, reconnaissance de la parole, traitement de la langue naturelle écrite, diagnostic) ont mis en lumière un type particulier de ces modèles : les réseaux neuronaux profonds (Deep Neural Networks).

La caractéristique de tels modèles est d’être formés d’un nombre important de couches de neurones pouvant atteindre plusieurs centaines. L’apprentissage profond de ces modèles nécessitent à la fois trois conditions :

  • des algorithmes performants (amélioration de la rétropropagation du gradient d’erreur) ;

  • des moyens de calcul parfois considérables (processeur spécialisés tels que ceux de la firme Nvidia) ;

  • la disponibilité de quantités importantes de données d’apprentissage, notamment les big data, ces données numériques que nous produisons tous quotidiennement de façon massive (messages vocaux et écrits, signaux GPS, informations climatiques, achats, transactions bancaires, publications scientifiques, journaux et revues, etc.)

Parmi ces réseaux neuronaux profonds, un modèle s’est révélé particulièrement performants. Il s’agit des réseaux convolutifs, conçus initialement pour l’image et étendu ensuite à de nombreux domaines d’application.

L’IA générative utilise les réseaux neuronaux profonds pour produire à la demande un texte, une image, une vidéo, une musique, etc. Cette production résulte d’une courte description textuelle appelée prompt. Cet article présente les différents types de modèles d’IA générative et décrit leur fonctionnement. Les domaines de l’écrit (notamment ChatGPT) et de l’image (tel que MidJourney) sont particulièrement considérés.

Cet article est réservé aux abonnés.
Il vous reste 94% à découvrir.

Cet article offert jusqu'au 31/12/2024
Consulter en libre accès

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

VERSIONS

Il existe d'autres versions de cet article :

DOI (Digital Object Identifier)

https://doi.org/10.51257/a-v2-h3760

CET ARTICLE SE TROUVE ÉGALEMENT DANS :

Accueil Ressources documentaires Innovation Innovations technologiques Innovations en électronique et TIC L’intelligence artificielle générative Bref historique

Accueil Ressources documentaires Technologies de l'information Le traitement du signal et ses applications Gestion audio, images et vidéo numériques L’intelligence artificielle générative Bref historique

Accueil Ressources documentaires Innovation Innovations technologiques Les grands événements de l'année L’intelligence artificielle générative Bref historique

Accueil Ressources documentaires Technologies de l'information Technologies logicielles Architectures des systèmes Intelligence artificielle L’intelligence artificielle générative Bref historique


Cet article fait partie de l’offre

Documents numériques Gestion de contenu

(76 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Présentation

1. Bref historique

L’histoire des réseaux de neurones commence, comme celle de l’informatique, dans les années 1940 [H 3 720]. Notons quelques grandes étapes :

  • en 1943, W. Mc Culloch et W. Pitts proposent un modèle formel du neurone encore présent dans tous les systèmes neuronaux actuels ;

  • en 1957 F. Rosenblatt conçoit le perceptron monocouche ;

  • en 1986 Y. Le Cun et D.E. Rumelhart proposent séparément le perceptron multicouche, extension du perceptron monocouche, et l’algorithme associé d’apprentissage par rétropropagation du gradient d’erreur ;

  • dans les années 2000, les réseaux neuronaux profonds obtiennent des performances exceptionnelles, parfois supérieures à l’humain ;

  • vers 2015, l’IA générative, fondée sur les réseaux neuronaux profonds, apparaît dans les domaines de l’image et du texte.

HAUT DE PAGE

Cet article est réservé aux abonnés.
Il vous reste 95% à découvrir.

Cet article offert jusqu'au 31/12/2024
Consulter en libre accès

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Documents numériques Gestion de contenu

(76 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Bref historique
Sommaire
Sommaire

BIBLIOGRAPHIE

  • (1) - LE CUN (Y.) -   Quand la machine apprend, la révolution des réseaux de neurones et l’apprentissage profond –  -  Odile Jacob (2021).

  • (2) - HATON (J.-P.) et al -   Intelligences artificielles : de la théorie à la pratique –  -  Dunod (2023).

  • (3) - GOODFELLOW (I.) et al -   Generative Adversarial Networks.  -  Advances in Neural Information Processing Systems, 27 (2014).

  • (4) - SOHL-DICKSTEIN (J.) et al -   Deep unsupervised learning using non equilibrium thermodynamics.  -  Proc. 32nd Int. Conf. on Machine Learning, Lille, France (2015).

  • (5) - RAMESH (A.) et al -   Hierarchical Text-Conditional Image Generation with CLIP Latents.  -  (2022) arXiv.org: 2204.06125.

  • (6) - NICHOL (A.) et al -   Point·E: A System for...

Cet article est réservé aux abonnés.
Il vous reste 92% à découvrir.

Cet article offert jusqu'au 31/12/2024
Consulter en libre accès

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Documents numériques Gestion de contenu

(76 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS