Présentation
EnglishRÉSUMÉ
Les machines à noyaux constituent une classe d’algorithmes permettant d’extraire de l’information à partir de données dans un cadre non paramétrique. L’intérêt suscité par ces méthodes tient d’abord aux excellentes performances qu’elles ont permis d’obtenir notamment sur les problèmes de grande taille. Cette bonne tenue à la charge est due à la parcimonie de la solution et à la faible complexité de son calcul. L’intérêt des machines à noyaux réside aussi dans leur caractère flexible et rigoureux, approche, qui recèle un grand potentiel. Cet article vise à introduire les machines à noyaux en se focalisant sur la plus populaire, le séparateur à vaste marge.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleAuteur(s)
-
Stéphane CANU : Professeur des Universités - Directeur du LITIS, INSA de Rouen
INTRODUCTION
Les machines à noyaux constituent une classe d’algorithmes permettant d’extraire de l’information à partir de données dans un cadre non paramétrique. L’intérêt suscité par ces méthodes tient d’abord aux excellentes performances qu’elles ont permis d’obtenir notamment sur les problèmes de grande taille. Cette bonne tenue à la charge est due à la parcimonie de la solution et à la faible complexité de son calcul. L’intérêt des machines à noyaux réside aussi dans leur caractère flexible et rigoureux, approche, qui recèle un grand potentiel. Ce dossier vise à introduire les machines à noyaux en se focalisant sur la plus populaire, le séparateur à vaste marge (SVM), en faisant le point sur les différentes facettes de son utilisation. L’accent est mis sur les considérations pratiques liées à la mise en œuvre de ce type de méthode.
DOI (Digital Object Identifier)
CET ARTICLE SE TROUVE ÉGALEMENT DANS :
Accueil > Ressources documentaires > Technologies de l'information > Technologies logicielles Architectures des systèmes > Big Data > Machines à noyaux pour l’apprentissage statistique > Méthodes à noyau parcimonieuses
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(240 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
5. Méthodes à noyau parcimonieuses
Il existe différentes manières d’introduire la parcimonie. Il est notamment toujours possible d’imposer directement à la solution de ne dépendre que d’un petit nombre de coefficients non nuls. Mais il est plus élégant de formuler des critères à minimiser de sorte que la solution soit naturellement parcimonieuse. C’est le cas des séparateurs à vaste marges (SVM ou support vector machines) que nous allons voir maintenant.
Dans le cadre des SVM, on cherche dans un EHNR de noyau k la fonction de norme minimale discriminant au mieux un ensemble d’observations de deux classes (x i , y i ) i = 1, n avec . La fonction de décision D est de la forme suivante D (x) = signe (f (x) + α 0). Lorsqu’un exemple est bien classé, il vérifie l’inégalité . La marge d’une fonction de discrimination est alors définie sur un ensemble (x i , y i ), i = 1, n de points biens classés comme la plus petite distance entre les points de l’échantillon et la frontière de décision soit : min i y i (f (x i ) + α 0). Il se trouve que pour le problème de discrimination, la marge est directement liée à la confiance que l’on peut accorder à une fonction de discrimination. Il est alors raisonnable de rechercher la fonction de décision qui maximisera cette marge m tout en...
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(240 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Méthodes à noyau parcimonieuses
BIBLIOGRAPHIE
-
(1) - VAPNIK (V.) - Statistical Learning Theory - . Wiley, 1998.
-
(2) - HASTIE (T.), TIBSHIRANI (R.), FRIEDMAN (J.) - The elements of statistical learning - . Data Mining, inference and predictions, Springer, 2001.
-
(3) - HERBRICH (R.) - Learning Kernel Classifiers - . The MIT Press, 2002.
-
(4) - SCHOELKOPF (B.), SMOLA (A.J.) - Learning with Kernels - . The MIT Press, 2002.
-
(5) - SHAWE-TAYLOR (J.), CRISTIANIN (N.) - Kernel Methods for Pattern Analysis - . Cambridge Univ. Press, 2004.
-
(6) - * - Trois sites de référence : http://www.kernel-machines.org, http://jmlr.csail.mit.edu, http://www.nips.cc.
-
(7)...
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(240 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive