OpenAI propose une version plus petite et moins chère de son ChatGPT le plus puissant

OpenAI a déclaré qu’il s’attend à ce que GPT-4o mini, son modèle le moins cher, « augmente considérablement » le nombre d’applications d’IA en cours de développement.

Nous pouvons gagner une commission sur les liens sur cette page.
Sam Altman parlant sur scène portant un pull gris et un pantalon noir devant un fond noir avec les lettres GPTs écrites en blanc
Sam Altman, PDG d’OpenAI, lors de la journée de développement OpenAI, le 6 novembre 2023, à San Francisco, en Californie.
Photo: Justin Sullivan (Getty Images)

OpenAI a présenté une version plus petite et plus rentable de son modèle le plus puissant, le GPT-4o, et cela pourrait signifier encore plus d’applications alimentées par l’IA. .

Publicité

Le nouveau modèle, GPT-4o mini, est plus intelligent et plus de 60 % moins cher que GPT-3.5 Turbo, selon OpenAI, ce qui signifie qu’il est plus abordable pour les développeurs qui créent des applications sur les modèles d’OpenAI. GPT-4o mini est au prix de 15 cents par 1 million de jetons d’entrée — ou l’unité d’information d’une IA Le modèle utilise, par exemple, un mot ou une phrase et 60 cents pour 1 million de jetons de sortie. Cela équivaut à 2 500 pages en un livre, a déclaré OpenAI.

« Nous nous attendons à ce que GPT-4omini élargisse considérablement la gamme d’applications construites avec l’IA en rendant l’intelligence beaucoup plus abordable », a déclaré OpenAI dans une déclaration.

Publicité

Sur le benchmark Massive Multitask Language Understanding (MMLU), qui mesure les capacités des modèles linguistiques dans 57 matières, y compris les mathématiques et le droit, GPT-4o mini a obtenu un score de 82 %, surpassant les autres petits modèles et GPT-3.5 Turbo, selon OpenAI. Le petit modèle remplacera GPT-3.5 Turbo dans ChatGPT Les utilisateurs , et Free, Plus, et Team ont accès au nouveau modèle maintenant.

Publicité

À sa sortie, GPT-4o mini peut prendre en charge le texte et la vision dans l’interface API ou l’interface de programmation d’application, ce qui permet aux développeurs de créer leur propre modèles d’IA à partir de la technologie OpenAI. À l’avenir, GPT-4o aura un support pour le texte, l’image, la vidéo et l’audio, OpenAI a déclaré. Le petit modèle a des connaissances jusqu’en octobre 2023.

Publicité

« Nous envisageons un avenir dans lequel les modèles seront intégrés de manière transparente dans chaque application et sur chaque site Web », a déclaré OpenAI. « GPT-4o mini ouvre le moyen pour les développeurs de créer et de mettre à l’échelle des applications d’IA puissantes de manière plus efficace et plus abordable.

OpenAI a dévoiléChatGPT-4o, en mai , ce qui est multimodal, ce qui signifie qu’il peut voir, entendre et avoir des conversations en temps réel.

Publicité

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité