Meta Platforms, la société derrière Facebook et Instagram, ne s’attend pas à recevez cette année des expéditions de la nouvelle puce IA « Blackwell » de Nvidia, a déclaré mardi un porte-parole de l’entreprise à Reuters.
La nouvelle arrive juste un jour après que Nvidia a dévoilé un successeur de nouvelle génération plus puissant et plus rapide de sa puce H100 AI : le B200, lors de sa conférence annuelle des développeursLa nouvelle puce est ce qu’on appelle une unité de traitement graphique (GPU) et c’est ce qui alimente les modèles de langage utilisés dans les chatbots IA. comme ChatGPT d’OpenAI.
«Nous attendons avec impatience utiliser Blackwell de Nvidia pour aider à s’entraîner nos modèles open source Llama et construire la nouvelle génération de Meta IA et de produits de grand public”, a déclaré le fondateur et PDG de Meta, Mark Zuckerberg dans une déclaration lundi.
Facebook n’a pas immédiatement répondu à une demande de commentaire.
Meta est l’un des plus gros clients de Nvidia
Plus tôt cette année, le géant des médias sociaux a annoncé son intention d’augmenter son stock de puces Nvidia plus anciennes.
En janvier, Zuckerberg a déclaré dans un post sur le concurrent X de l’entreprise, Threads, que Meta prévoyait de avoir environ 350 000 puces H100 d’ici la fin de cette année. Le chiffre est frappant quand on considére que chaque puce porte un prix de 40 000 $.
La semaine dernière, Meta a annoncé qu’il entraînait ses modèles d’IA sur deux clusters GPU composés de environ 24 000 chips H100 chacun.
Blackwell inaugurera la nouvelle génération de l’IA
L’action Nvidia a augmenté de 2 % mardi après que la directrice financière de Nvidia, Colette Kress, a déclaré aux investisseurs que ses nouvelles puces B200 sera arrivé sur le marché plus tard cette année.
De plus, Jensen Huang, PDG de Nvidia, a déclaré à CNBC que la puce Blackwell serait prix entre 30 000 $ et 40 000$.
Le puits noir est composé de 208 milliards de transistors et sera 2,5 fois plus rapide lors de l’entraînement de l’IA que son prédécesseur et cinq fois plus rapide lors de l’entraînement de l’IA. l’inférence, le processus utilisé par les modèles d’IA pour tirer des conclusions.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.