Selon OpenAI, il y a 5 « niveaux » permettant à l’IA d’atteindre l’intelligence humaine — elle est déjà presque au niveau 2

Le créateur de ChatGPT pense qu’il s’agit du premier niveau, qui est l’IA conversationnelle.

Nous pouvons gagner une commission sur les liens sur cette page.
Sam Altman portant un costume et parlant
Sam Altman, PDG d’OpenAI, au “AI Insight Forum” dans le bâtiment des bureaux du Sénat Russell sur Capitol Hill le 13 septembre 2023 à Washington , DC
Photo: Chip Somodevilla (Getty Images)

OpenAI est sans aucun doute l’un des leaders dans la course pour atteindre une intelligence artificielle au niveau humain — et il serait apparemment à quatre pas d’y parvenir. là.

Publicité

L’entreprise a partagé un système à cinq niveaux il a été développé pour suivre les progrès de son intelligence générale artificielle, ou AGI, auprès des employés cette semaine, a déclaré à Bloomberg un porte-parole d’OpenAI. de l’IA conversationnelle actuellement disponible à l’IA qui peut effectuer la même quantité de travail qu’une organisation. OpenAI partagerait apparemment le niveaux avec les investisseurs et les personnes extérieures à l’entreprise.

Même si les dirigeants d’OpenAI estiment qu’il s’agit du premier niveau, le porte-parole a déclaré qu’il est proche du niveau deux, qui est défini comme « les raisonneurs ", ou une IA qui peut résoudre des problèmes de base et qui est au niveau d’un humain avec un doctorat mais sans accès à outils. Le troisième niveau du système d’OpenAI serait appelé « Agents » et est une IA qui peut effectuer différentes actions pendant « plusieurs jours ». au nom de son utilisateur. Le quatrième niveau serait appelé « Innovateurs » et décrit l’IA qui peut aider à développer de nouvelles inventions.

Publicité

Les dirigeants d’OpenAI ont également montré à leurs employés un projet de recherche avec GPT-4 qui a démontré qu’il possède des capacités de raisonnement semblables à celles des humains, a rapporté Bloomberg, citant un anonymat. personne familière avec le sujet. La société a refusé de commenter davantage.

Publicité

Le système aurait été développé par des dirigeants et des dirigeants d’OpenAI qui peuvent éventuellement modifier les niveaux en fonction des commentaires des employés, des investisseurs et des conseil d’administration de l’entreprise.

Publicité

En mai, OpenAI a dissous son équipe “Superalignment”, qui était responsable de travailler sur le problème des dangers existentiels de l’IA. La société a déclaré que le travail de l’équipe serait absorbé par d’autres recherches efforts dans OpenAI.

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité