Présentation

Article

1 - CONTEXTE

2 - NOYAUX ET RECONNAISSANCE DES FORMES

3 - OUTILS

4 - MÉTHODES À NOYAU NON PARCIMONIEUSES

  • 4.1 - Splines d’interpolation
  • 4.2 - Splines de lissage
  • 4.3 - Régression logistique à noyau
  • 4.4 - Considérations algorithmiques

5 - MÉTHODES À NOYAU PARCIMONIEUSES

6 - ASPECTS PRATIQUES LIÉS À LA MISE EN ŒUVRE DES MACHINES À NOYAUX

7 - CONCLUSION

Article de référence | Réf : TE5255 v1

Outils
Machines à noyaux pour l’apprentissage statistique

Auteur(s) : Stéphane CANU

Date de publication : 10 févr. 2007

Pour explorer cet article
Télécharger l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !

Sommaire

Présentation

Version en anglais English

RÉSUMÉ

Les machines à noyaux constituent une classe d’algorithmes permettant d’extraire de l’information à partir de données dans un cadre non paramétrique. L’intérêt suscité par ces méthodes tient d’abord aux excellentes performances qu’elles ont permis d’obtenir notamment sur les problèmes de grande taille. Cette bonne tenue à la charge est due à la parcimonie de la solution et à la faible complexité de son calcul. L’intérêt des machines à noyaux réside aussi dans leur caractère flexible et rigoureux, approche, qui recèle un grand potentiel. Cet article vise à introduire les machines à noyaux en se focalisant sur la plus populaire, le séparateur à vaste marge.

Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.

Lire l’article

Auteur(s)

  • Stéphane CANU : Professeur des Universités - Directeur du LITIS, INSA de Rouen

INTRODUCTION

Les machines à noyaux constituent une classe d’algorithmes permettant d’extraire de l’information à partir de données dans un cadre non paramétrique. L’intérêt suscité par ces méthodes tient d’abord aux excellentes performances qu’elles ont permis d’obtenir notamment sur les problèmes de grande taille. Cette bonne tenue à la charge est due à la parcimonie de la solution et à la faible complexité de son calcul. L’intérêt des machines à noyaux réside aussi dans leur caractère flexible et rigoureux, approche, qui recèle un grand potentiel. Ce dossier vise à introduire les machines à noyaux en se focalisant sur la plus populaire, le séparateur à vaste marge (SVM), en faisant le point sur les différentes facettes de son utilisation. L’accent est mis sur les considérations pratiques liées à la mise en œuvre de ce type de méthode.

Cet article est réservé aux abonnés.
Il vous reste 92% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

DOI (Digital Object Identifier)

https://doi.org/10.51257/a-v1-te5255


Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(240 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Version en anglais English

3. Outils

3.1 Au début était le noyau

Dans le cadre des méthodes d’apprentissage à noyaux, la première chose à faire pour l’ingénieur, qui cherche à construire un système de reconnaissance des formes, est de se donner le ou les noyaux qui feront partie de l’étude .

Soit Ω un ensemble, un noyau k sur Ω est une fonction de deux variables de Ω × Ω à valeur dans . Nous avons vu le noyau comme la fonctionnelle d’évaluation pour l’observation. Si maintenant, on considère la fonction de deux variables, le noyau mesure d’une certaine manière la similarité ou la corrélation entre deux objets. À la lumière de cette analogie, il est naturel de s’intéresser aux noyaux associés à une distance : les noyaux positifs.

Définition 4 : noyau positif

Un noyau k (st) sur Ω est dit positif s’il est symétrique (k (st) = k (ts)) et si il vérifie pour tout entier n fini :

{ α i } i=1,n , { x i } i=1,n Ω, i=1 n j=1 n α ...

Cet article est réservé aux abonnés.
Il vous reste 93% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(240 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Outils
Sommaire
Sommaire

BIBLIOGRAPHIE

  • (1) - VAPNIK (V.) -   Statistical Learning Theory  -  . Wiley, 1998.

  • (2) - HASTIE (T.), TIBSHIRANI (R.), FRIEDMAN (J.) -   The elements of statistical learning  -  . Data Mining, inference and predictions, Springer, 2001.

  • (3) - HERBRICH (R.) -   Learning Kernel Classifiers  -  . The MIT Press, 2002.

  • (4) - SCHOELKOPF (B.), SMOLA (A.J.) -   Learning with Kernels  -  . The MIT Press, 2002.

  • (5) - SHAWE-TAYLOR (J.), CRISTIANIN (N.) -   Kernel Methods for Pattern Analysis  -  . Cambridge Univ. Press, 2004.

  • (6) -   *  -  Trois sites de référence : http://www.kernel-machines.org, http://jmlr.csail.mit.edu, http://www.nips.cc.

  • (7)...

Cet article est réservé aux abonnés.
Il vous reste 95% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(240 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS