L’intelligence artificielle adopte l’architecture d’un « réseau neuronal », organisé en couches de neurones interconnectées. Le programme DeepMind de Google appréhende un environnement donné et l’interprète au travers de son système neuronal pour y répondre.
Son algorithme décompose l’analyse d’un ensemble de données complexes couche après couche pour extraire de cette information brute un schéma structuré, « créer des règles à partir de rien ».
Le programme initial mis en place au Google X Lab en Californie en 2011 consistait en un réseau d’un million de neurones simulés, dotés d’un milliard de connexions, répartis entre 1000 ordinateurs. Il a montré la performance des réseaux neuronaux dans l’identification d’images et la reconnaissance vocale, suivant la méthode de « l’apprentissage en profondeur ».
Cette approche, initiée dans les années 1980, vise à renforcer les interconnexions pertinentes entre couches neuronales simulées. Yann LeCun, aujourd’hui directeur de la recherche en intelligence artificielle à Facebook, produit à cette époque un programme d’identification des chèques bancaires.
La révolution numérique des années 2000 ouvre à de nouvelles expériences par la masse des données disponibles et la puissance de calcul accrue. Les projets menés autour de la reconnaissance vocale améliorent de 25 % la qualité dans le cas du logiciel Siri intégré à la plateforme IOS d’Apple.
L’algorithme d’identification d’images remporte en 2012 la compétition ImageNet : les programmes « apprennent » à partir d’un stock d’un million d’images étiquetées en catégories. Un test les soumet à une série d’images inconnues dont ils doivent dire l’étiquette.
Le taux d’erreur passe avec ce nouvel algorithme de 25 % à 15 %. Pour cela, les « filets neuronaux profonds » – deep neural nets – exploitent une deuxième stratégie, l’apprentissage par renforcement, qui institue un système de décision, par des mécanismes de récompense et de validation, comme un score, à chaque expérience.
L’algorithme apprend par essai-erreur quelles actions maximisent sa récompense à n’importe quel moment en environnement complexe. Plus la quantité d’information traitée est importante, plus algorithme s’améliore.
Par Etienne Monin
Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE