Son algorithme décompose l’analyse d’un ensemble de données complexes couche après couche pour extraire de cette information brute un schéma structuré, « créer des règles à partir de rien ».
Le programme initial mis en place au Google X Lab en Californie en 2011 consistait en un réseau d’un million de neurones simulés, dotés d’un milliard de connexions, répartis entre 1000 ordinateurs. Il a montré la performance des réseaux neuronaux dans l’identification d’images et la reconnaissance vocale, suivant la méthode de « l’apprentissage en profondeur ».
Cette approche, initiée dans les années 1980, vise à renforcer les interconnexions pertinentes entre couches neuronales simulées. Yann LeCun, aujourd’hui directeur de la recherche en intelligence artificielle à Facebook, produit à cette époque un programme d’identification des chèques bancaires.
La révolution numérique des années 2000 ouvre à de nouvelles expériences par la masse des données disponibles et la puissance de calcul accrue. Les projets menés autour de la reconnaissance vocale améliorent de 25 % la qualité dans le cas du logiciel Siri intégré à la plateforme IOS d’Apple.
L’algorithme d’identification d’images remporte en 2012 la compétition ImageNet : les programmes « apprennent » à partir d’un stock d’un million d’images étiquetées en catégories. Un test les soumet à une série d’images inconnues dont ils doivent dire l’étiquette.
Le taux d’erreur passe avec ce nouvel algorithme de 25 % à 15 %. Pour cela, les « filets neuronaux profonds » – deep neural nets – exploitent une deuxième stratégie, l’apprentissage par renforcement, qui institue un système de décision, par des mécanismes de récompense et de validation, comme un score, à chaque expérience.
L’algorithme apprend par essai-erreur quelles actions maximisent sa récompense à n’importe quel moment en environnement complexe. Plus la quantité d’information traitée est importante, plus algorithme s’améliore.
Par Etienne Monin
Cet article se trouve dans le dossier :
Google DeepMind : l'intelligence humaine est-elle déjà dépassée ?
- Google DeepMind : la machine surpasse une nouvelle fois l’intelligence humaine
- Les machines à apprendre : réseaux neuronaux et apprentissages en profondeur
- Des programmes informatiques qui apprennent à jouer
- Les performances derrière la victoire d’AlphaGo
- Des machines qui se souviennent, le défi des intelligences artificielles à venir
Dans l'actualité
- Loi renseignement : des algorithmes de surveillance massive
- Des chercheurs assurent avoir trouvé l’algorithme du chien de berger
- Les algorithmes de Google ressemblent à s’y méprendre au fonctionnement des fourmis
- Les performances derrière la victoire d’AlphaGo
- Des machines qui se souviennent, le défi des intelligences artificielles à venir
- I.A. et politique : des discours bientôt écrits par un algorithme ?
- Des réseaux neuronaux plus performants, vers une IA plus créative ?