
JensenHuang, PDG de Nvidia a dévoilé le nouveau processeur très attendu du fabricant de puces IA lundi, affirmant que les géants de la technologie comme Microsoft et Google attendent déjà avec impatience son arrivée.
Huang a fait l’annonce pendant la conférence sur la technologie GPU de l’entreprise, ou CGV, qui a été surnommé le « Woodstock de l’IA » par employés et analystes la conférence annuelle à San Jose, en Californie, a eu lieu alors que Nvidia a montré la voie dans une frénésie à Wall Street pour les actions d’IA pour débuter 2024 — dépassant les attentes en matière de bénéfices,devenant le premier fabricant de puces à atteindre une capitalisation boursière de 2 billion de $, et de monter en volant des entreprises dont Amazon pour devenir la troisième entreprise la valeur au monde.
La montée en puissance de Nvidia a été alimentée par ses puces H100 d’une valeur de 40 000 $, qui alimentent les soi-disant grands modèles de langage nécessaires pour exécuter des chatbots génératifs d’IA comme ChatGPT d’OpenAI. Les puces sont connues sous le nom de GPU, ou des unités de traitement graphique.
Lundi, Huang a dévoilé le GPU de nouvelle génération de Nvidia, « Blackwell », du nom du mathématicien David Blackwell, le premier chercheur noir intronisé à l’Académie nationale. des Sciences. La puce Blackwell est composée de 208 milliards de transistors et sera capable de gérer les modèles et les requêtes d’IA plus rapidement. que ses prédécesseurs, a déclaré Huang. Les puces Blackwell réussissent La puce H100 très demandée de Nvidia, qui porte le nom de l’informaticien Grace Hopper. Huang a appelé Hopper « le GPU le plus avancé au monde en production aujourd’hui ».
« Hopper est fantastique, mais nous avons besoin de plus gros GPU”, a-t-il dit. un très gros GPU.
Microsoft, Alphabet, parent de Google, et Oracle sont parmi les géants de la technologie qui se préparent pour Blackwell, a déclaré Huang. Microsoft et Google sont deux des géants de Nvidia. plus gros clients pour ses puces H100.
L’action Nvidia était globalement stable lundi, mais elle est en hausse de plus de 83 % jusqu’à présent cette année et de plus de 241 % au cours des 12 dernières mois.
Lire la suite: Les actions de Nvidia sont-elles dans une bulle qui va éclater ? Wall Street n’arrive pas à se décider
Au cours de son discours d’ouverture à la conférence Nvidia de lundi, Huang a annoncé de nouveaux partenariats avec les créateurs de logiciels informatiques Cadence, Ansys et Snyopsys. Cadence, Huang Huang a déclaré qu’il construisait un superordinateur avec les GPU de Nvidia. Et la fonderie d’IA de Nvidia travaille avec SAP, ServiceNow et Snowflake, a déclaré Huang.
Huang a également crié dans le public, Michael Dell, fondateur et PDG de Dell, dont la société est en partenariat avec Nvidia. Dell étend ses offres d’IA aux clients, y compris un nouveau stockage de données d’entreprise avec l’infrastructure d’IA de Nvidia.
« Chaque entreprise devra construire des usines d’IA », a déclaré Huang. « Et il s’avère que Michael est là, et il est heureux de prenez votre commande.
Huang a également annoncé que Nviida créait un modèle numérique de la Terre pour prédire les conditions météorologiques avec son nouveau modèle d’IA génératif, CorrDiff. qui peut générer des images à résolution 12,5 fois supérieure à celle des modèles actuels.
Et Huang a déclaré que la plate-forme informatique de Nvidia, Omniverse, diffuse désormais vers Casque Vision Pro d’Apple, et que le fabricant chinois de VE BYD adopte le modèle de Nvidia ordinateur de nouvelle génération Thor.
Huang a conclu son discours d’ouverture de deux heures accompagné de deux robots, les droïdes Star Wars BD orange et vert, qui, selon lui, sont propulsé par Nvidia Systèmes informatiques Jetson, et qui a appris à marcher avec IsaacSim de Nvidia.
Tout au long de la semaine au GTC, Les chercheurs et dirigeants de Nvidia seront rejoints par des acteurs puissants du secteur de l’IA. — dont Brad Lightcap, directeur des exploitations d’OpenAI, et Arthur Mensch, directeur exécutif de Mistral AI, un rival de l’OpenAI français — pour livrer des sessions sur des sujets allant de l’innovation à l’éthique.
Microsoft et Meta sont les plus gros clients de Nvidia pour sa puce H100, les deux géants de la technologie ayant dépensé 9 milliards de dollars en puces en 2023. Alphabet, Amazon et Oracle ont également dépensé le plus en puces. l’année dernière.
Mais la frénésie autour des puces H100 de Nvidia a suscité des inquiétudes quant aux pénuries, et les concurrents désireux de garder une longueur d’avance dans la course à l’IA ont commencé à construire leurs propres versions des puces. Amazon a travaillé sur deux puces appelées Inferentia et Tranium, tandis que Google travaille sur son Tensor Unités de traitement.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.