Nvidia tire près de la moitié de ses revenus de seulement 4 clients. Voici qui ils pourraient être

Nvidia tire près de la moitié de ses revenus de seulement 4 clients. Voici qui ils pourraient être

Certaines des plus grandes entreprises technologiques du monde ont dépensé des milliards de dollars dans les puces d’IA de Nvidia. Ses plus gros clients sont anonymes dans les documents déposés

Nous pouvons gagner une commission sur les liens sur cette page.
Lancer le diaporama
Lancer le diaporama
Jensen Huang brandissant une puce lors de son discours d’ouverture
Jensen Huang, PDG de Nvidia, lors de la GTC du fabricant de puces le 18 mars 2024 à San José, en Californie.
Photo: Justin Sullivan (Getty Images)

Quand Nvidia (NVDA) signalé 30 milliards de dollars de revenus Dans ses résultats du deuxième trimestre, le fabricant de puces d’IA a révélé que près de la moitié de ces bénéfices provenaient de seulement quatre clients.

Publicité

Pendant que les clients sont anonyme dans le dossier réglementaire 10-Q de NvidiaLe « client A » représentait 14 % du chiffre d’affaires de Nvidia, tandis que deux clients en représentaient 11 % et le quatrième 10 %. Ces ventes, qui représentent environ 46 % de son chiffre d’affaires, soit 13,8 milliards de dollars, « étaient principalement attribuables au segment Informatique et réseau », a déclaré la société.

« Nous avons connu des périodes où nous recevions une part importante de nos revenus d’un nombre limité de clients, et cette tendance pourrait se poursuivre », a déclaré Nvidia dans le dossier.

Les principaux acheteurs de Nvidia sont susceptibles d’inclure Alphabet (GOOGLE), Amazon (AMZN), Méta (MÉTA), Microsoft (MSFT), et Tesla (TSLA) — acteurs majeurs dans le boom de l’intelligence artificielle générative. Même OpenAI, créateur de ChatGPT pourrait être l’un de eux.

Voici ce que chacune de ces entreprises, considérées comme faisant partie des principaux clients de Nvidia, fait avec ses puces d’IA très demandées.

Publicité
Diapositive précédente
Diapositive suivante

Alphabet

vue vers le haut de Sundar Pichai parlant avec ses mains jointes sous un logo Google coloré sur un fond blanc
Sundar Pichai, PDG de Google, à la conférence Google I/O 2017 le 17 mai 2017 à Mountain View, en Californie.
Photo: Justin Sullivan (Getty Images)

En juillet, Alphabet, la société mère de Google, a rapporté chiffre d’affaires de près de 85 milliards de dollars pour le deuxième trimestre, dépassant les attentes de Wall Street de 840 millions de dollars.

Publicité

« Nos solides performances ce trimestre soulignent la force continue de la recherche et la dynamique du Cloud », a déclaré le directeur général Sundar Pichai dans un communiqué. Le chiffre d’affaires Cloud d’Alphabet a dépassé les 10 milliards de dollars pour la première fois, tandis que son bénéfice d’exploitation a dépassé le milliard de dollars.

« Notre infrastructure d’IA et nos solutions d’IA génératives pour les clients du cloud ont déjà généré des milliards de revenus et sont utilisées par plus de 2 millions de développeurs », a déclaré Pichai.

Et bien que AI Overviews, la fonctionnalité de recherche IA déployée sur Google Search en mai, ait initialement mal tourné, générer des informations erronées, voire dangereusesPichai a déclaré que l’entreprise avait fait de « grands progrès » et augmenté l’engagement des utilisateurs entre 18 et 24 ans.

Google a annoncé en juillet qu’il allait lancer son modèle le plus rapide et le plus rentable, 1,5 Flash, disponible dans la version non payante de son chatbot Gemini dans plus de 40 langues et plus de 230 pays et territoires.

Avec Flash 1.5, Gemini disposera de « réponses plus rapides et plus utiles », a déclaré Google, ajoutant que les utilisateurs remarqueraient des améliorations dans les capacités de raisonnement et de traitement d’images de Gemini.

En août, Google a ramené La capacité des Gémeaux à générer des images de personnes, après avoir dû mettre en pause la fonctionnalité en février, lorsque des utilisateurs ont souligné que Gemini générait des images historiquement inexactes de personnes, notamment de soldats allemands de l’ère nazie d’origines raciales diverses.

Publicité
Diapositive précédente
Diapositive suivante

Amazone

gros plan du logo Amazon sur un bâtiment gris
Centre de distribution Amazon à North Las Vegas, Nevada.
Photo: Ethan Miller (Getty Images)

Des mois après que Nvidia ait dévoilé sa nouvelle génération, puces Blackwell très recherchées, Amazon Web Services, le plus grand fournisseur de cloud computing au monde, a « entièrement transformé » sa commande de Nvidia Chips de trémie pour Blackwell parce que la « fenêtre entre Grace Hopper et Grace Blackwell était petite”, la société dit Le Financial Times.

Publicité

En avril, le directeur général d’Amazon, Andy Jassy, a déclaré dans un communiqué lettre annuelle aux actionnaires l’entreprise est « optimiste sur le fait que la plus grande fois de cette intelligence informatique qui change le monde sera construite sur AWS.” Alors qu’Amazon dépensé environ 1,5 milliard de dollars sur les puces H100 de Nvidia en 2023, la société a également construit ses propres puces : Trainium pour entraînement ses modèles d’IA, et Inférences, une puce pour inférence.

Pendant ce temps, la société serait travailler sur un chatbot IA, appelé en interne « Metis », pour rivaliser avec ChatGPT d’OpenAI. Le chatbot sera accessible via un navigateur Web, et sera alimenté par l’un des modèles d’IA internes de l’entreprise, Olympus, Business Insider signalé, citant des personnes anonymes au courant du dossier ainsi qu’un document interne. Olympus serait plus puissant que Titan, le modèle d’IA d’Amazon disponible au public.

Alors qu’Amazon a changé le jeu des assistants virtuels en lançant Alexa en 2014, le nouvel Alexa alimenté par l’IA de l’entreprise est pas même près d’être prêt, Fortune signalé, citant d’anciens employés anonymes. Amazon ne disposerait pas de suffisamment de données ni d’accès aux puces nécessaires pour faire fonctionner le Modèle de langage étendu (LLM) alimentant la nouvelle version de son assistant virtuel. L’entreprise aurait également relégué au second plan Alexa, alimentée par l’IA, pour se concentrer sur la création d’une IA générative pour son unité de cloud computing, AWS.

Cependant, un porte-parole d’Amazon a déclaré à Quartz que ses anciens employés avaient tort et n’étaient pas informés de ses efforts actuels en matière d’intelligence artificielle Alexa, et que l’équipe d’intelligence artificielle générale d’Amazon avait accès aux puces Trainium internes et à Nvidia. unités de traitement graphique, ou GPU.

En mars, Amazon a achevé son Investissement de 4 milliards de dollars dans la start-up d’IA Anthropic — son plus gros investissement dans une entreprise extérieure à ce jour.

Publicité
Diapositive précédente
Diapositive suivante

Méta

Mark Zuckerberg parle dans un microphone avec une carte de visite de M. Mark Zuckerberg devant lui
Mark Zuckerberg, PDG de Meta, témoigne devant la commission judiciaire du Sénat le 31 janvier 2024 à Washington, DC
Photo: Alex Wong (Getty Images)

En juillet, Meta a publié son modèles open source Llama 3.1 ce qu’il dit sont ses « le plus compétent » à ce jour. Le plus grand modèle, Llama 3.1 405B, a 405 milliards paramètres, ou les variables qu’un modèle apprend à partir des données d’entraînement qui guident son comportement. Llama 3.1 405B rivalise avec ses concurrents à code source fermé d’OpenAI et de Google dans des « capacités de pointe », notamment en matière de connaissances générales, de mathématiques et de traduction de langues, a déclaré Meta. La version comprenait également versions améliorées de ses modèles 8B et 70B, qui ont été introduits en avril.

Publicité

Meta a déclaré avoir entraîné le modèle avec plus de 16 000 H100 de Nvidia GPU, ou unités de traitement graphique. Pendant ce temps, Nvidia a annoncé un Service Nvidia AI Foundry pour les entreprises et les États-nations pour construire des « supermodels » avec Llama 3.1 405B.

Les modèles Llama de Meta sont utilisés pour alimenter son chatbot IA, MetaAI, qui est disponible sur Facebook, Instagram et d’autres plateformes. Mark Zuckerberg, directeur général de Meta, a déclaré à Bloomberg que l’entreprise est travailler sur Llama 4.

Publicité
Diapositive précédente
Diapositive suivante

Microsoft

Satya Nadella parle avec ses mains jointes devant un logo Microsoft sur un fond bleu, il porte un pull bleu marine et un pantalon gris
Satya Nadella, président-directeur général de Microsoft, au CES 2024 le 9 janvier 2024 à Las Vegas, Nevada.
Photo: Ethan Miller (Getty Images)

En septembre, Microsoft a dévoilé « la prochaine vague » de son Copilot outils d’intelligence artificielle dans sa suite d’applications de travail.

Publicité

Les fonctionnalités basées sur l’IA incluent Business Chat, qui regroupe les données Web, les données professionnelles et les données commerciales dans un nouvel outil appelé Copilot Pages, où les données générées par l’homme et l’IA peuvent être modifiées, ajoutées et partagées entre les équipes de travail. Satya Nadella, directeur général de Microsoft a déclaré le nouvel outil faisait partie de ses « habitudes quotidiennes ».

Microsoft a également lancé Copilot dans Excel avec Python, ce qui permet d’utiliser le langage de programmation pour travailler avec des données dans Excel en langage naturel, sans codage. Le nouveau Copilot comprend également des fonctionnalités basées sur l’IA pour Powerpoint, Outlook, Word, OneDrive et Teams, que le cofondateur de Microsoft Bill Gates a a dit qu’il utilise « beaucoup ». Et l’entreprise a introduit les agents Copilot, ou assistants IA, qui peuvent être utilisés pour automatiser certaines tâches commerciales.

En mars, Business Insider a signalé que certains clients de Microsoft étaient se plaignant que le copilote n’était pas à la hauteur de ChatGPT d’OpenAI. Cependant, les employés ont déclaré que Microsoft 365 Copilot avait généralement des retours positifs, mais certains clients utilisant des versions plus anciennes de la suite d’outils professionnels de Microsoft s’attendaient à ce que le Copilot plus avancé fonctionne avec lui, ce qui a conduit à la comparaisons défavorables avec ChatGPT.

En mai, Microsoft a annoncé les PC Copilot Plus, ou ses ordinateurs portables équipés de matériel d’IA et un support pour les applications d’IA, qui seraient disponibles auprès de ses principaux partenaires en matière d’ordinateurs portables, notamment Dell (DELL) et HP (HPQ

)

Publicité
Diapositive précédente
Diapositive suivante

. La société a déclaré en mai qu’elle avait

. La société a déclaré en mai qu’elle avait

 avec plus de 100 fonctionnalités pour prendre en charge les applications d’IA développées par ses clients sur sa plateforme de cloud computing Azure.
30 outils d’« IA responsable » ont été publiés
Photo: Christian Marquardt - Pool (Getty Images)

TeslaElon Musk, PDG de Tesla, lors de l’ouverture officielle de la nouvelle usine de fabrication de voitures électriques Tesla le 22 mars 2022 près de Gruenheide, en Allemagne. Elon Musk debout devant une rangée de Tesla sous un tunnel en miroir avec le logo Tesla dans le coin supérieur gauche du tunnel et des gens debout autour de lui

Publicité

Getty Images

Tesla, que son fondateur et directeur général Elon Musk a présenté comme une entreprise d’IA, travaille depuis des années sur sa technologie de conduite entièrement autonome (FSD). L’entreprise de véhicules électriques a été accusée d’avoir exagéré son système d’assistance à la conduite, mais en juillet, des analystes ont déclaré que son

la dernière mise à jour était encourageante.« Il y a eu plus de 90 mises à jour du système FSD au cours des quatre dernières années, et les Tesla entièrement autonomes n’existent toujours pas », a écrit Alexander Potter, analyste chez Piper Sandler. Mais « à en juger par les avis des utilisateurs sur la plateforme X, la version 12.5 est révolutionnaire ».En septembre, Tesla a dévoilé sa fonctionnalité Actually Smart Summon pour ses véhicules électriques S3XY. Cette fonctionnalité permet aux propriétaires de Tesla d’ordonner à leur voiture de se rendre à leur emplacement ou à une autre destination via l’application Tesla. Une autre fonctionnalité, appelée Dumb Summon, permet aux propriétaires de faire avancer ou reculer leur véhicule via l’application.Tesla a également un robot humanoïde appelé Optimus en cours de développement, qu’elle a présenté lors de la Conférence mondiale sur l’intelligence artificielle en Chine en juillet.

robot de deuxième génération, qui n’est pas encore en production à grande échelle, est « capable d’effectuer des tâches dangereuses, répétitives ou ennuyeuses », affirme l’entreprise. En juin, Musk a affirmé que les robots propulseront à terme l’entreprise vers une capitalisation boursière de 30 000 milliards de dollars.Musk, qui a également fondé une start-up d’IA appelée xAI, a annoncé en septembre que son cluster de formation, appelé Colossus, est alimenté par 100 000 Nvidia H100 unités de traitement graphique, ou GPU, et devrait doubler de taille pour atteindre 200 000 puces, dont 50 000 puces H200 plus puissantes de Nvidia, « en quelques mois ». En juillet, il a publié un sondage sur sa plateforme de médias sociaux X, demandant si

Publicité
Diapositive précédente
Diapositive suivante

Tesla

xAI
devrait investir 5 milliards de dollars dans
Photo: Justin Sullivan (Getty Images)

OpenAISam Altman, PDG d’OpenAI, lors de l’OpenAI DevDay le 6 novembre 2023 à San Francisco, en Californie.Sam Altman parle, vêtu d’un pull vert mousse et d’un pantalon noir, devant un fond blanc avec les mots OPENAI DEVDAY derrière luiGetty ImagesQuand il

Publicité

publié ChatGPT

en novembre 2022, la startup d’IA OpenAI a donné le lancement de l’actuel boom de l’IA générative qui a vu de grandes entreprises technologiques, y compris son partenaire, Microsoft, dépensent des milliards dans les puces de Nvidia. Malgré son statut de startup, OpenAI est sans aucun doute l’un des leaders de la course, avec ses modèles surpassant systématiquement ceux de ses concurrents.En septembre, OpenAI a publié sa série de « modèles de raisonnement » qui, selon elle, peuvent « réfléchir » aux problèmes avant de répondre, « un peu comme le ferait une personne ». La série de modèles, désormais disponible en version préliminaire o1 via ChatGPT et l’API de l’entreprise, peut gérer des tâches et des problèmes plus complexes en sciences, en codage et en mathématiques que les modèles OpenAI précédents. L’entreprise a également annoncé OpenAI o1-mini, une version plus petite et moins chère du nouveau modèle, qui peut aider les développeurs dans leurs tâches de codage.En mai, la start-up a publié un

modèle phare appelé GPT-4o, ce qu’il appelle une étape vers une interaction homme-ordinateur beaucoup plus naturelle. Le modèle peut accepter les combinaisons

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité