C’est une histoire comme les aiment les Américains. Cette fois, il ne s’agit pas du mythique garage (une histoire d’ailleurs un peu trop romancée comme l’a précisé Steve Wozniak cofondateur d’Apple), mais d’un restaurant. Trois ingénieurs – Jensen Huang, Chris Malachowsky et Curtis Priem – se sont réunis dans un restaurant qui est aujourd’hui au cœur de la Silicon Valley.
Objet de la discussion : développer une puce informatique qui rendrait les graphiques des jeux vidéo plus rapides et plus réalistes. C’est ainsi qu’est né Nvidia en 1993. 31 ans plus tard, l’entreprise est valorisée à plus de 3 200 milliards de dollars et elle est toujours dirigée par Jensen Huang.
Le PDG de Nvidia a su tirer profit de l’intelligence artificielle pour booster son activité. En 2006, des chercheurs de l’université de Stanford avaient en effet découvert que les GPU (Graphics Processing Unit) avaient une autre utilité : ils pouvaient accélérer les opérations mathématiques, ce que les puces de traitement ordinaires ne pouvaient pas faire.
Un pari risqué
Six ans plus tard, Alexnet, une IA capable de classer des images, avait été développée en utilisant seulement deux GPU programmables de Nvidia. Rapidement, des informaticiens ont intégré ces cartes graphiques non pas pour jouer, mais pour accélérer leurs outils.
Le pari était risqué pour Nvidia. Alors que les GPU traditionnels étaient principalement conçus pour le rendu des graphiques dans les jeux vidéo et les applications visuelles, les GPU programmables peuvent être personnalisés pour effectuer diverses tâches de calcul au-delà du simple traitement graphique.
La suite est connue : l’intelligence artificielle a commencé à être intégrée dans différents programmes et appareils. Et ChatGPT a permis de franchir une nouvelle étape avec l’intelligence artificielle générative.
Qualifié de « prochaine révolution industrielle », l’IA intéresse de plus en plus les entreprises et en particulier les big tech. Résultat, les puces Nvidia sont dans tous les datacenters faisant tourner des algorithmes. Selon un récent rapport de CB Insights, Nvidia détient environ 95 % du marché des GPU pour l’apprentissage automatique.
Par exemple, ChatGPT d’OpenAI s’appuie sur 10 000 unités de traitement graphique de Nvidia regroupées dans un superordinateur appartenant à Microsoft. Chaque puce IA coûte environ 10 000 dollars…
Actuellement, Nvidia est tellement en avance sur son temps qu’elle ne rencontre pas de véritables concurrents. Sa domination semble assurée pour l’instant. Cela va-t-il durer ? D’autres grandes sociétés de semi-conducteurs commencent à se montrer assez offensives. AMD et Intel fabriquent également des GPU dédiés aux applications d’IA.
Récemment, AMD a affirmé que ses nouvelles puces Instinct MI300X étaient plus rapides que la H100 de Nvidia et qu’elles avaient le potentiel d’offrir de meilleures performances de calcul.
Google a ses unités de traitement tensoriel (TPU), utilisées non seulement pour les résultats de recherche, mais aussi pour certaines tâches d’apprentissage automatique. Enfin, Amazon a une puce sur mesure pour l’entraînement des modèles d’IA.
Le principal risque pour Nvidia est que des entreprises pourraient fabriquer leurs propres puces IA. Cela s’est déjà produit par le passé. Par exemple, pendant des années, Intel a été le fournisseur de puces privilégié d’Apple. Mais, en 2020, le fabricant de l’iPhone a décidé d’utiliser ses propres puces dans ses appareils, mettant ainsi fin à un partenariat de 15 ans avec Intel.
La domination de Nvidia n’aiguise pas uniquement l’appétit des autres fondeurs. Les régulateurs aussi sont sur les rangs. L’Autorité française de la concurrence pourrait l’inculper pour pratiques anticoncurrentielles présumées.
Dans l'actualité
- Puces électroniques : les États-Unis tentent d’assurer leur autonomie
- Robots humanoïdes : bientôt une réalité dans les entreprises ?
- Comment une référence pour les gamers est devenue un acteur majeur de l’informatique quantique
- IBM annonce une puce 25 fois plus rapide que les autres
- Des puces ultrabasse consommation avec Nellow
Dans les ressources documentaires
- Calcul généraliste sur carte graphique - Du rendu au calcul massivement parallèle
- Construire son datacenter opensource haute disponibilité avec GPU partagé
- De la réalité virtuelle aux métavers
- Médias immersifs et réalité virtuelle : vidéo 360° et audio 3D - Distribution. Usages. Qualité
- Moteurs de recherche web - Google, Bing et leurs challengers