OpenAI a présenté une version plus petite et plus rentable de son modèle le plus puissant, le GPT-4o, et cela pourrait signifier encore plus d’applications alimentées par l’IA. .
Le nouveau modèle, GPT-4o mini, est plus intelligent et plus de 60 % moins cher que GPT-3.5 Turbo, selon OpenAI, ce qui signifie qu’il est plus abordable pour les développeurs qui créent des applications sur les modèles d’OpenAI. GPT-4o mini est au prix de 15 cents par 1 million de jetons d’entrée — ou l’unité d’information d’une IA Le modèle utilise, par exemple, un mot ou une phrase et 60 cents pour 1 million de jetons de sortie. Cela équivaut à 2 500 pages en un livre, a déclaré OpenAI.
« Nous nous attendons à ce que GPT-4omini élargisse considérablement la gamme d’applications construites avec l’IA en rendant l’intelligence beaucoup plus abordable », a déclaré OpenAI dans une déclaration.
Sur le benchmark Massive Multitask Language Understanding (MMLU), qui mesure les capacités des modèles linguistiques dans 57 matières, y compris les mathématiques et le droit, GPT-4o mini a obtenu un score de 82 %, surpassant les autres petits modèles et GPT-3.5 Turbo, selon OpenAI. Le petit modèle remplacera GPT-3.5 Turbo dans ChatGPT Les utilisateurs , et Free, Plus, et Team ont accès au nouveau modèle maintenant.
À sa sortie, GPT-4o mini peut prendre en charge le texte et la vision dans l’interface API ou l’interface de programmation d’application, ce qui permet aux développeurs de créer leur propre modèles d’IA à partir de la technologie OpenAI. À l’avenir, GPT-4o aura un support pour le texte, l’image, la vidéo et l’audio, OpenAI a déclaré. Le petit modèle a des connaissances jusqu’en octobre 2023.
« Nous envisageons un avenir dans lequel les modèles seront intégrés de manière transparente dans chaque application et sur chaque site Web », a déclaré OpenAI. « GPT-4o mini ouvre le moyen pour les développeurs de créer et de mettre à l’échelle des applications d’IA puissantes de manière plus efficace et plus abordable.
OpenAI a dévoiléChatGPT-4o, en mai , ce qui est multimodal, ce qui signifie qu’il peut voir, entendre et avoir des conversations en temps réel.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.