Nvidia a été nommé d’après le mot latin pour envie, « invidia. » Et il y a beaucoup à envier chez le géant des semi-conducteurs. Les entreprises l’ont furieusement englouti. ses puces IA très coûteuses dans leur course au développement de nouvelles technologies d’intelligence artificielle générative. Les actions de Nvidia ont grimpé de 220 % au cours de la dernière année alors que les revenus ont explosé, le faisant la troisième entreprise la valeur au monde. C’est pratiquement “imprimer de l’argent”, a déclaré un analyste.
Désormais, d’autres géants de la technologie présentent leurs propres puces IA : MTIA de Meta, Maia de Microsoft, Trainium d’Amazon et Les TPU de Google. Sans mentionner Intel et des micro-appareils avancés, des fabricants de puces à semi-conducteurs qui sont des concurrents directs de Nvidia. En l’espace de deux jours cette semaine, le parent de Google Alphabet, Facebook parent Meta et Intel ont tous présenté un nouveau matériel d’IA, qui fait partie de un défi croissant à la dominance de Nvidia.
Mais Nvidia ne s’effondrera pas facilement.
La concurrence croissante de Nvidia
Les deux tiers des revenus de Nvidia proviennent de ses cinq principaux clients, selon Gil Luria, analyste chez DA Davidson. Il s’agit notamment de Meta, Microsoft, Google, et Amazon. Tous les quatre ont commencé à fabriquer du matériel d’IA en interne, ce qui pourrait sérieusement menacer les revenus de Nvidia à l’avenir.
Google dévoile son TPU v5p mardi, suivi de Meta sortie de la prochaine itération de son MTIA Mercredi, les derniers signes indiquant que les acheteurs de puces d’IA de Nvidia deviennent plus autonomes. Des startups d’IA de premier plan utilisent déjà Les services Google sont alimentés par son nouveau matériel au lieu des puces IA de Nvidia, connues sous le nom de GPU ou unités de traitement graphique. Anthropic est utilise la technologie de Google pour alimenter son chatbot IA Claude, tandis que Hugging Face et AssemblyAI l’utilisent pour booster leurs capacités de génération d’images et de reconnaissance vocale .
« Nvidia a pu en extraire une quantité énorme de bénéfices aventuels au ces dernières années, basés sur le fait qu’ils avaient le bon produit au bon moment », a déclaré Luria dans une interview. « Mais maintenant que le marché a la taille qu’il est, [il existe] plusieurs entreprises qui sont en position de remplacer Nvidia par d’autres produits — surtout, les propres clients de Nvidia.”
Les rivaux de Nvidia en matière de semi-conducteurs, Intel et AMD, améliorent également leur jeu de puces IA. Intel a présenté son accélérateur d’IA Gaudi 3 lors de sa conférence Intel Vision 2024 de mardi, déclarant qu’il a de meilleures performances et d’efficacité pour la formation de modèles d’IA que les alternatives de l’industrie , y compris La puce H100 très recherchée de Nvidia. Intel a déclaré que sa nouvelle puce a plus de puissance de calcul IA, de bande passante réseau et de mémoire que son prédécesseur. le Gaudi2.
Intel a également déclaré que son accélérateur Gaudi 3 peut former les modèles d’apprentissage des langues (LLM) qui alimentent les chatbots IA 50 % plus rapidement que La populaire puce H100 de Nvidia, d’une valeur de 40 000 $, et fournir une « inférence » 30 % plus rapide (ou utiliser des données pour faire des prédictions) pour les meilleurs LLM par par à La puce H200 de Nvidia. La société attend que Nvidia publie les résultats de performances pour sa puce Blackwell récemment dévoilée avant de pouvoir le comparer avec Gaudi3.
Le PDG d’Intel, Pat Gelsinger, a déclaré aux journalistes mardi que la société avait sa propre « feuille de route d’innovation » qui comprend l’accélération de son accélérateur Gaudi 3. avec les clients et les partenaires commerciaux car il est en concurrence avec les versions de produits de Nvidia.
“Il est clair que le puits Gaudi 3 surpasse le H100 aujourd’hui”, a déclaré Gelsinger, ajoutant que le TCO, ou coût total de possession, constitue un énorme différenciateur. entre les deux fabricants de puces.
Bien qu’il ait refusé de partager les détails du prix de Gaudi 3, Gelsinger a déclaré qu’Intel se sent “très à l’aise” car il sera “bien en dessous du prix”. niveaux de prix qui ont été indiqués pour les H100 et Blackwell.
Mais la question de la concurrence d’Intel avec Nvidia ne concerne pas seulement les performances, mais aussi le coût, la disponibilité et l’accès aux données, a déclaré Christoph Schell, directeur commercial d’Intel.
“Nous cochons la case pour chacun d’entre eux”, a déclaré Schell, “bien en avance sur Nvidia”.
Après un énorme rassemblement pour débuter 2024, Les actions Nvidia s’effondrent en territoire de correction mardi, en baisse de 10 % par rapport à son récent sommet alors que Google et Intel visaient son faiseur de pluie IA.
Mais Nvidia ne perdra pas de sitôt son éclat en matière d’IA
La correction n’a pas duré longtemps : l’action Nvidia a fermé en haut de 2% mercredi, même un jour le marché au sens large a connu une liquidation.
Nvidia détient une part de 75 % du marché des accélérateurs d’IA, selon lesanalystes de Bank of America. La plupart des entreprises comprennent désormais comment créer l’IA matériel de puce, a déclaré Benjamin Lee, professeur d’ingénierie et d’informatique à l’Université de Pennsylvanie. L’avantage majeur des puces Nvidia, il Cela dit, ce sont leurs bibliothèques de logiciels, qui permettent aux développeurs de créer facilement des applications d’IA sans avoir à écrire du code à partir de zéro.
Pour l’instant, Intel et AMD ne font que rattraper leur retard, a déclaré Lee.
« Nvidia y travaille depuis aus aus dernières 10 années », a déclaré Lee, ce qui reflète la maturité de leur ensemble d’outils. ” comparé à Intel — qui seulement a lancé sa première puce IA en 2019.
Pendant ce temps, Lee a déclaré que les clients de Nvidia fabriquent principalement des accélérateurs d’IA pour réduire leurs propres coûts et non pour concurrencer directement Nvidia.
D’un autre côté, Luria a noté que Google vend déjà des services exécutés sur ses TPU, ou unités de traitement tensoriel. Amazon 4 milliards de $ d’investissement dans Anthropic stipule que ses futurs modèles d’IA ne fonctionneront que sur des puces Amazon. Et la supériorité des logiciels de Nvidia ne durera pas éternellement, Luria a déclaré, car ses clients sont très motivés à trouver des moyens de réduire leurs dépenses en puces en développant leurs propres produits d’IA et en développant leurs propres produits d’IA. soutenir les concurrents de Nvidia.
Luria a utilisé Microsoft comme exemple.
« Lorsque Microsoft dépensait moins de 2 milliards de dollars par an en GPU Nvidia, peut-être qu’ils n’avaient pas nécessairement besoin de consacrer autant d’efforts à ce projet. leurs propres puces”, a-t-il déclaré. “Mais l’année dernière, ils ont dépensé 11,5 milliards de dollars en GPU. Cela crée donc un sentiment d’urgence.”
Luria a déclaré que c’était similaire pour Amazon, Google et Meta.
“Maintenant que les dépenses sont aussi importantes”, a-t-il déclaré, “ils travaillent beaucoup plus dur pour remplacer Nvidia par leur propres puces personnalisées qui sont faites sur mesure pour [leurs] applications d’IA.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.