
OpenAI a reçu une commande très convoitée de puces H100 et en attend d’autres bientôt, a déclaré le PDG Sam Altman dans un communiqué du 13 novembre. entretien avec le Temps Financier, ajoutant que « l’année prochaine semble déjà qu’elle va être meilleure”en ce qui concerne l’obtention de plus de puces.
On pourrait dire que le niveau d’attention accordé aux chatbots IA comme ChatGPT d’OpenAI et Bard de Google cette année correspond au degré d’attention portée à NvidiaLes puces H100 d’une valeur de 40 000 $. OpenAI, comme de nombreuses autres sociétés d’IA, utilise le dernier modèle de puces de Nvidia pour entraîner ses modèles.
L’achat de plus de puces provenant de signaux OpenAI que de modèles d’IA plus sophistiqués, qui vont au-delà de la version actuelle des chatbots, sera prêt dans un futur proche.
La forte demande de puces H100 de Nvidia
Les systèmes d’IA générative sont entraînés sur de grandes quantités de données pour générer des réponses complexes à des questions, ce qui nécessite beaucoup de puissance de calcul. Entrez dans les puces H100 de Nvidia, qui sont conçues pour l’IA générative et fonctionnent beaucoup plus rapidement que les modèles de puces précédents. Plus les puces sont puissantes, plus plus rapidement, vous pouvez traiter les requêtes, Willy Shih, professeur à la Harvard Business School, précédemment dit Quartz.
En arrière-plan, startups, des concurrents en matière de puces comme AMD et des sociétés de grande technologie comme Google et Amazon ont travaillé à la construction de puces plus efficaces, adaptées aux applications d’IA. pour répondre à la demande, mais aucun jusqu’à présent n’a pu surpasser Nvidia.
Une telle demande intense pour une puce spécifique de la part d’une seule entreprise a créé une sorte de frénésie d’achat pour Nvidia, et ce ne sont pas seulement les entreprises technologiques. Les gouvernements et les sociétés de capital-risque sont également en train de ronger leur frein. Mais si OpenAI était capable de obtenir son ordre, peut-être que la marée tourne enfin et que le flux de puces vers les entreprises d’IA s’améliore.
Et pendant que Nvidia règne, la semaine dernière, Prateek Kathpal, le PDG de SymphonyAI Industrial, qui construit des chatbots IA pour un usage interne au sein de fabricants, a déclaré à Quartz que, bien que ses applications d’IA fonctionnent sur les puces de Nvidia, la société a également été en discussion avec AMD et Bras pour leur technologie.
Que signifient davantage de puces pour OpenAI ?
L’inventaire croissant de puces d’OpenAI signifie plusieurs choses.
Les puces H100 aideront à alimenter le prochain modèle d’IA de l’entreprise, le GPT-5, qui, selon Altman, est actuellement en préparation. Le nouveau modèle il faudra davantage de données pour s’entraîner, qui proviendront à la fois d’informations disponibles au public et d’informations propriétaires des entreprises, a-t-il expliqué. Temps Financier. GPT-5 sera probablement plus sophistiqué que ses prédécesseurs, bien que l’on ne sache pas clairement ce qu’il fera que GPT-4 ne peut pas faire, a-t-il ajouté.
Altman n’a pas divulgué de calendrier pour la sortie de GPT-5. Mais la succession rapide de versions, avec GPT-4 à venir seulement huit il y a des mois, suite à la sortie de son prédécesseur GPT-3 en 2020, met en évidence un cycle de développement rapide.
L’achat de plus de puces suggère également que l’entreprise se rapproche de la création intelligence générale artificielle, ou AGI, en abrégé, qui est un système d’IA qui peut essentiellement accomplir toute tâche que les êtres humains peuvent accomplir.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.