Intel et Facebook travaillent sur une puce qui réduirait les coûts d’utilisation de l’intelligence artificielle. Destinées à l’inférence de réseaux de neurones, ce processeur réduira le nombre d’opérations à effectuer, leur type, mais aussi l’utilisation de la mémoire.
Selon l’étude « Sizing the prize » de PWC, le PIB mondial pourrait croître de 14 % d’ici 2030 grâce à l’IA. Les gains de productivité engendrés par les technologies d’intelligence artificielle devraient représenter la moitié des bénéfices économiques attendus. Tous les secteurs et toutes les entreprises seront d’une manière ou d’une autre impactés par l’IA.
Lors du dernier Consumer Electronics Show (CES), Intel a annoncé qu’il s’associait avec Facebook pour développer une nouvelle puce d’IA. Dénommée NNP-I (Nervana Neural Processor for Inference), elle permettrait de déployer le machine learning de manière plus efficace et à moindre coût. Le fondeur a déclaré que la puce serait compatible avec les principaux logiciels d’IA. Mais l’accord avec le réseau social confirme que ce projet ne peut se faire sans l’expertise d’ingénieurs spécialisés dans les programmes d’IA.
Des cartes graphiques pour l’IA
Sa puce est destinée à accélérer l’inférence, c’est-à-dire la capacité d’un réseau neuronal de catégoriser automatiquement les données en fonction des données apprises.
Pour Intel, cette annonce confirme son intention de ne plus être distancé par la concurrence : la start-up britannique Graphcore (qui a récemment levé 200 millions de dollars d’investissements), des entreprises chinoises (Cambricon, Horizon Robotics et Bitmain), Google et Amazon. Mais surtout Nvidia.
Lorsque Nvidia a inventé l’architecture de traitement parallèle CUDA (Compute Unified Device Architecture) il y a près de dix ans, personne n’était sûr de leur intérêt. Utiliser une carte graphique pour exécuter des tâches spécifiques semblait improbable.
Aujourd’hui, les GPU dominent dans de nombreux domaines, depuis les applications traditionnelles comme la 3D et le rendu vidéo, jusqu’à l’intelligence artificielle…
Caméra pilotée par l’IA
Les calculs nécessaires au deep learning ne sont en effet pas optimisés avec des processeurs classiques. Les résultats sont meilleurs avec des puces qui divisent les calculs, ce qui inclut les cartes graphiques (GPU) dont c’est la spécialité de… Nvidia. Résultat, cette entreprise vend énormément de GPU haut de gamme pour l’intelligence artificielle.
La sortie de la puce d’Intel est prévue pour le second semestre 2019. Cela coïncidera avec les projets de Facebook. Pour le réseau social, cet accord confirme son intérêt de développer des casques de réalité virtuelle et des enceintes intelligentes. C’est le cas de Portal qui devrait être mis en vente en novembre aux États-Unis. Cet appareil, en forme de tablette, intègre une caméra optimisée par l’IA pour faire un panoramique, zoomer et recadrer l’image.
Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE