Présentation
EnglishRÉSUMÉ
Les machines à noyaux constituent une classe d’algorithmes permettant d’extraire de l’information à partir de données dans un cadre non paramétrique. L’intérêt suscité par ces méthodes tient d’abord aux excellentes performances qu’elles ont permis d’obtenir notamment sur les problèmes de grande taille. Cette bonne tenue à la charge est due à la parcimonie de la solution et à la faible complexité de son calcul. L’intérêt des machines à noyaux réside aussi dans leur caractère flexible et rigoureux, approche, qui recèle un grand potentiel. Cet article vise à introduire les machines à noyaux en se focalisant sur la plus populaire, le séparateur à vaste marge.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleAuteur(s)
-
Stéphane CANU : Professeur des Universités - Directeur du LITIS, INSA de Rouen
INTRODUCTION
Les machines à noyaux constituent une classe d’algorithmes permettant d’extraire de l’information à partir de données dans un cadre non paramétrique. L’intérêt suscité par ces méthodes tient d’abord aux excellentes performances qu’elles ont permis d’obtenir notamment sur les problèmes de grande taille. Cette bonne tenue à la charge est due à la parcimonie de la solution et à la faible complexité de son calcul. L’intérêt des machines à noyaux réside aussi dans leur caractère flexible et rigoureux, approche, qui recèle un grand potentiel. Ce dossier vise à introduire les machines à noyaux en se focalisant sur la plus populaire, le séparateur à vaste marge (SVM), en faisant le point sur les différentes facettes de son utilisation. L’accent est mis sur les considérations pratiques liées à la mise en œuvre de ce type de méthode.
DOI (Digital Object Identifier)
CET ARTICLE SE TROUVE ÉGALEMENT DANS :
Accueil > Ressources documentaires > Technologies de l'information > Technologies logicielles Architectures des systèmes > Intelligence artificielle > Machines à noyaux pour l’apprentissage statistique > Conclusion
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(240 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
7. Conclusion
L’utilisation de noyaux permet de répondre à trois problèmes importants liés à l’apprentissage statistique . D’abord, le noyau définit la similarité entre les exemples. Ensuite, il permet de représenter chaque vecteur forme par des caractéristiques très générales, ce qui lui confère une forme d’universalité (approche non paramétrique) et enfin, la nature de l’ensemble des hypothèses est spécifiée à partir du noyau, ce qui permet de formuler le problème par rapport aux exemples. Ce cadre formel unifié a permis l’obtention de nombreux résultats théoriques justifiant les approches que nous venons de présenter.
Pratiquement aussi, la théorie statistique de l’apprentissage a fait un pas important grâce aux machines à noyaux : celui du passage à l’échelle du traitement automatique de grande masse de données. L’utilisation de noyaux permet de formuler le problème d’apprentissage dans un cadre fonctionnel général qui garantit à la fois une forme d’universalité de l’approche et une certaine simplicité dans les traitements. Cette simplicité est principalement due à la propriété de parcimonie, qui joue un rôle très important, à la linéarité de la solution et à la convexité du problème d’optimisation associé.
Bien d’autres aspects liés aux machines à noyaux n’ont pas été abordés faute de place. C’est le cas des techniques d’apprentissage bayésiennes, des techniques de régression, de minimisation de contrastes comme l’analyse discriminante de Fischer à noyau et de toutes les méthodes spectrales...
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(240 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Conclusion
BIBLIOGRAPHIE
-
(1) - VAPNIK (V.) - Statistical Learning Theory - . Wiley, 1998.
-
(2) - HASTIE (T.), TIBSHIRANI (R.), FRIEDMAN (J.) - The elements of statistical learning - . Data Mining, inference and predictions, Springer, 2001.
-
(3) - HERBRICH (R.) - Learning Kernel Classifiers - . The MIT Press, 2002.
-
(4) - SCHOELKOPF (B.), SMOLA (A.J.) - Learning with Kernels - . The MIT Press, 2002.
-
(5) - SHAWE-TAYLOR (J.), CRISTIANIN (N.) - Kernel Methods for Pattern Analysis - . Cambridge Univ. Press, 2004.
-
(6) - * - Trois sites de référence : http://www.kernel-machines.org, http://jmlr.csail.mit.edu, http://www.nips.cc.
-
(7)...
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(240 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive