OpenAI a un nouveau comité de sécurité— et bien sûr il comprend Sam Altman

L’annonce intervient quelques semaines seulement après la fermeture de l’équipe des dangers existentiels de l’IA de l’entreprise.

Nous pouvons gagner une commission sur les liens sur cette page.
Sam Altman
Photo: Chris Ratcliffe/Bloomberg (Getty Images)

OpenAI a formé un nouveau comité de sûreté et de sécurité après son L’équipe des dangers existentiels a été dissoute plus tôt ce mois-ci.

Publicité

Le nouvelle équipe de supervision sera dirigé par le président du conseil d’administration Bret Taylor, les directeurs Adam D’Angelo et Nicole Seligman et le directeur général d’OpenAI. Sam Altman, a annoncé mardi la société d’intelligence artificielle. La première tâche du comité sera d’évaluer et de développer les processus et les garanties d’OpenAI au cours des 90 prochaines années. jours, a indiqué l’entreprise.

À la fin de la période de trois mois, le comité partagera ses recommandations avec l’ensemble du conseil d’administration et, après examen, l’entreprise partager publiquement une mise à jour sur les recommandations adoptées.

Publicité

La société a également confirmé qu’elle a commencé à former son modèle d’IA « prochaine frontière » qui succédera au modèle GPT-4 qui l’alimente. chatbot, ChatGPT, et l’aidera à avancer vers intelligence générale artificielle (IAG).

Publicité

Le comité de sécurité comprendra également des experts techniques et politiques d’OpenAI, dont le chef de la préparation Aleksander Madry, le chef des systèmes de sécurité Lilian Weng. John Schulman, responsable de la science de l’alignement, Matt Knight, responsable de la sécurité, et Jakub Pachocki, scientifique en chef.

Publicité

Cela survient après que l’entreprise ait fermé l’équipe responsable des dangers existentiels de l’IA après les deux co-responsables du soi-disant « superalignement » de l’entreprise. équipe — co-fondateur et scientifique en chef Ilya Soutskever et Jan Leike — a démissionné le 14 mai.

À son départ, Leike a écrit dans un fil de discussion sur X que il avait atteint un “point de rupture” sur des désaccords avec les priorités fondamentales de l’entreprise, ajoutant que « la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants » au cours de la dernière quelques années.

Publicité

Sutskever, qui a aidé brièvement à évincer Altman de la direction d’OpenAI à la fin de l’année dernière, et Leike ont rejoint les rangs de plusieurs autres Les employés d’OpenAI qui ont ont quitté l’entreprise ces derniers mois, y compris d’autres membres de l’équipe de superalignement et des chercheurs travaillant sur la politique et la gouvernance de l’IA qui ont le sentiment que le L’entreprise s’est éloignée de sa mission initiale.

En réponse aux départs très médiatisés, Altman et le président d’OpenAI, Greg Brockman, ont déclaré dans un communiqué post co-signé sur X qu’ils continuent de jeter les bases du déploiement de modèles d’IA de plus en plus performants et de manière sûre. « Nous devons continuer à élever notre des travaux de sécurité adaptés aux enjeux de chaque nouveau modèle », ont-ils déclaré.

Publicité

Cela comprend une « boucle de rétroaction très serrée, des tests rigoureux, une considération minutieuse à chaque étape, une sécurité de classe mondiale et une harmonie de sécurité et de capacités. ", a écrit le couple.

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité