Présentation

Article

1 - CONTEXTE

2 - NOYAUX ET RECONNAISSANCE DES FORMES

3 - OUTILS

4 - MÉTHODES À NOYAU NON PARCIMONIEUSES

  • 4.1 - Splines d’interpolation
  • 4.2 - Splines de lissage
  • 4.3 - Régression logistique à noyau
  • 4.4 - Considérations algorithmiques

5 - MÉTHODES À NOYAU PARCIMONIEUSES

6 - ASPECTS PRATIQUES LIÉS À LA MISE EN ŒUVRE DES MACHINES À NOYAUX

7 - CONCLUSION

Article de référence | Réf : TE5255 v1

Méthodes à noyau non parcimonieuses
Machines à noyaux pour l’apprentissage statistique

Auteur(s) : Stéphane CANU

Date de publication : 10 févr. 2007

Pour explorer cet article
Télécharger l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !

Sommaire

Présentation

Version en anglais English

RÉSUMÉ

Les machines à noyaux constituent une classe d’algorithmes permettant d’extraire de l’information à partir de données dans un cadre non paramétrique. L’intérêt suscité par ces méthodes tient d’abord aux excellentes performances qu’elles ont permis d’obtenir notamment sur les problèmes de grande taille. Cette bonne tenue à la charge est due à la parcimonie de la solution et à la faible complexité de son calcul. L’intérêt des machines à noyaux réside aussi dans leur caractère flexible et rigoureux, approche, qui recèle un grand potentiel. Cet article vise à introduire les machines à noyaux en se focalisant sur la plus populaire, le séparateur à vaste marge.

Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.

Lire l’article

Auteur(s)

  • Stéphane CANU : Professeur des Universités - Directeur du LITIS, INSA de Rouen

INTRODUCTION

Les machines à noyaux constituent une classe d’algorithmes permettant d’extraire de l’information à partir de données dans un cadre non paramétrique. L’intérêt suscité par ces méthodes tient d’abord aux excellentes performances qu’elles ont permis d’obtenir notamment sur les problèmes de grande taille. Cette bonne tenue à la charge est due à la parcimonie de la solution et à la faible complexité de son calcul. L’intérêt des machines à noyaux réside aussi dans leur caractère flexible et rigoureux, approche, qui recèle un grand potentiel. Ce dossier vise à introduire les machines à noyaux en se focalisant sur la plus populaire, le séparateur à vaste marge (SVM), en faisant le point sur les différentes facettes de son utilisation. L’accent est mis sur les considérations pratiques liées à la mise en œuvre de ce type de méthode.

Cet article est réservé aux abonnés.
Il vous reste 92% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

DOI (Digital Object Identifier)

https://doi.org/10.51257/a-v1-te5255


Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(240 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Présentation
Version en anglais English

4. Méthodes à noyau non parcimonieuses

Le bon usage des noyaux est lié à une technique de représentation qui permet de passer d’une formulation initiale « fonctionnelle » (où l’espace des hypothèses est un ensemble de fonctions de type H ) à une seconde formulation, vectorielle cette fois, faisant apparaître, pour chaque exemple, un coefficient représentant l’influence de ce point dans la solution. Pour illustrer ce principe, nous allons traiter l’exemple des splines d’interpolation.

4.1 Splines d’interpolation

Dans le cadre des splines d’interpolation, on cherche dans un EHNR H de noyau k la fonction de norme minimale interpolant un ensemble d’observations (x iy i ) i = 1, n . Le problème se formalise ainsi :

{ min fH 1 2 f H 2 avec f( x i )= y i ,    i=1,.n

Pour résoudre ce problème, on recherche les points selles du lagrangien L associé qui dépend des multiplicateurs de Lagrange α i , i = 1, …, n :

...

Cet article est réservé aux abonnés.
Il vous reste 93% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(240 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Méthodes à noyau non parcimonieuses
Sommaire
Sommaire

BIBLIOGRAPHIE

  • (1) - VAPNIK (V.) -   Statistical Learning Theory  -  . Wiley, 1998.

  • (2) - HASTIE (T.), TIBSHIRANI (R.), FRIEDMAN (J.) -   The elements of statistical learning  -  . Data Mining, inference and predictions, Springer, 2001.

  • (3) - HERBRICH (R.) -   Learning Kernel Classifiers  -  . The MIT Press, 2002.

  • (4) - SCHOELKOPF (B.), SMOLA (A.J.) -   Learning with Kernels  -  . The MIT Press, 2002.

  • (5) - SHAWE-TAYLOR (J.), CRISTIANIN (N.) -   Kernel Methods for Pattern Analysis  -  . Cambridge Univ. Press, 2004.

  • (6) -   *  -  Trois sites de référence : http://www.kernel-machines.org, http://jmlr.csail.mit.edu, http://www.nips.cc.

  • (7)...

Cet article est réservé aux abonnés.
Il vous reste 95% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(240 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS