Nvidia a dévoilé sa « très grande » nouvelle puce d’IA Blackwell : voici ce qu’il faut savoir

Le PDG de Nvidia, Jensen Huang, a annoncé le nouveau processeur très attendu du fabricant de puces IA lors de la conférence sur la technologie GPU de l’entreprise.

Nous pouvons gagner une commission sur les liens sur cette page.
Jensen Huang debout derrière les processeurs de Nvidia
Jensen Huang, PDG de Nvidia, lors de son discours d’ouverture à la conférence sur la technologie GPU de Nvidia, lundi à San Jose, en Californie.
Photo: Justin Sullivan (Getty Images)

L’entreprise responsable du plus matériel recherché dans le monde a dévoilé lundi une version de nouvelle génération encore plus puissante de sa puce d’IA lors de sa conférence technologique, surnommée le « Woodstock de l’IA » par employés et analystes.Le PDG de Nvidia, Jensen Huang, a annoncé le lancement du fabricant de puces IA. nouveau processeur très attendu, Blackwell, affirmant que des géants de la technologie comme Microsoft et Google se préparent déjà à son arrivée. Huang a annoncé la nouvelle puce Blackwell chez Nvidia. Conférence annuelle sur la technologie GPU

Publicité

, ou GTC, à San Jose, Californie. Qu’est-ce que la nouvelle puce Blackwell AI de Nvidia ?La plate-forme informatique Blackwell comprend la nouvelle puce B200, composée de 208 milliards de transistors, qui sera plus rapide et plus puissante que son prédécesseur, le très demandé Puce H100 nommé d’après l’informaticien Grace Hopper, qui est à l’origine de certains des modèles d’IA les plus puissants au monde. La plateforme Blackwell porte le nom du mathématicien David Blackwell, qui a été le premier savant noir intronisé à l’Académie nationale des sciences.

« Hopper est fantastique, mais nous avons besoin de GPU plus gros », a déclaré Huang. « Alors, mesdames et messieurs, j’aimerais vous présenter un un très gros GPU.

Publicité

Le B200 sera également disponible en un

quelques options pour les clients de Nvidia, a-t-il dit, y compris dans la superpuce Nvidia GB200 Grace Blackwell , qui connecte deux des GPU B200, ou unités de traitement graphiques , avec un processeur Nvidia Grace ou une unité centrale de traitement.Quelle est la vitesse de Blackwell et qu’est-ce que cela signifie pour l’IA ?Selon Nvidia, Blackwell est 2,5 fois plus rapide que Hopper en formation IA

Publicité

— alimentant les données des modèles d’IA pour améliorer ses performances — et cinq fois plus vite que son architecture Hopper à l’inférence, qui est le processus de un modèle d’IA pouvant

Publicité

tirer des conclusions à partir de nouvelles données

.

La nouvelle plateforme informatique Blackwell sera

25 fois plus efficace en énergie que son prédécesseur, a déclaré Nvidia. “La quantité d’énergie que nous économisons, la quantité de bande passante réseau que nous économisons, la quantité de temps perdu que nous économisons seront énormes, » Huang a déclaré. « L’avenir est génératif… c’est pourquoi il s’agit d’une toute nouvelle industrie. La façon dont nous calculons est fondamentalement différente. . Nous avons créé un processeur pour l’ère de l’IA générative.”

Publicité

Comme Huang l’a dit, le monde a besoin de « GPU plus gros » à mesure que les modèles d’IA deviennent plus grands et plus puissants. Par conséquent, sa nouvelle plate-forme informatique Blackwell, qui connecte ses nouvelles puces Blackwell à des produits tels que la superpuce et l’entreprise GB200 NVL72, donnera aux développeurs d’IA plus de puissance de calcul pour entraîner des modèles d’IA sur des données multimodales, qui incluent des images, des graphiques, des tableaux et même des vidéos.

Quelles entreprises souhaitent acheter les puces Blackwell de Nvidia ?

Sans surprise, les plus grandes entreprises technologiques mondiales sont déjà alignées pour la nouvelle puce de Nvidia. Google, Meta, Microsoft, OpenAI et Tesla en font partie. le Selon Nvidia, les organisations devraient bientôt adopter Blackwell..

Publicité

Sam Altman, PDG d’OpenAI, a déclaré que Blackwell “accélérera notre capacité à fournir des modèles de pointe”, tandis qu’Elon Musk, qui a lancé un rival d’OpenAI, xAI, a déclaré : « Il n’existe actuellement rien de meilleur que le matériel NVIDIA pour l’IA”, selon

un communiqué de presse. Microsoft et Meta sont déjà les plus gros clients de Nvidia pour ses puces H100 — tous deux

Publicité

dépenser 9 milliards de dollars en puces, qui auraient coûté jusqu’à 40 000 $, en 2023. Le succès de Nvidia avec sa puce H100 l’a fait devenir le

premier fabricant de puces à atteindre une capitalisation boursière de 2 000 milliards de dollars. Il a même devancé son client, Amazon, pour devenir la troisième entreprise la valeur aux États-Unis. C’est aussi a dépassé les attentes de Wall Street au cours du quatrième trimestre, avec des revenus de 22 milliards de dollars, soit une hausse de près de 270 % par rapport à l’année précédente. La nouvelle puce Blackwell de Nvidia retiendra probablement tout menaces pour son activité

Publicité

de certains clients

développer leurs propres puces, y compris Amazon, qui a travaillé sur deux puces appelées Inferentia et Tranium, et Google, qui a travaillé sur ses unités de traitement tensoriel . from some customers developing chips of their own — including Amazon, which has worked on two chips called Inferentia and Tranium, and Google, which has been working on its Tensor Processing Units.

Publicité

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité