
L’équipe OpenAI responsable des dangers existentiels de l’intelligence artificielle n’est plus, après le co-fondateur et scientifique en chef Ilya Sutskever — et son co-responsable de l’équipe de « superalignement » de l’entreprise Jan Leike — a démissionné mardi.
OpenAI a déclaré à Wired qu’il avait dissous l’équipe, ajoutant que ses travaux seront absorbés par d’autres efforts de recherche au sein de l’entreprise. équipe de superalignement en juillet dernier, avec Sutskever et Leike aux barres.
«La superintelligence sera la technologie la plus percutante que l’humanité ait jamais inventée et pourrait nous aider à résoudre bon nombre des problèmes les plus importants au monde.» OpenAI a déclaré à l’époque. « Mais le vaste pouvoir de la superintelligence pourrait également être très dangereux et pour conduire à la déresponsabilisation de l’humanité. ou même l’extinction de l’humanité.
L’équipe a été chargée de travailler sur ce problème et OpenAI a déclaré qu’elle consacrait 20 % de son calcul à l’effort sur la période les quatre prochaines années.
Sutskever, qui a joué un rôle dans l’éviction momentanée du directeur général d’OpenAI Sam Altman en novembre , écrit sur X Mardi, il a pris la décision de quitter l’entreprise après presque une décennie. « Je suis enthousiasmé par ce qui va suivre : un un projet qui est très important pour moi personnellement et sur lequel je partagerai des détails en temps utile », a-t-il écrit.
Vendredi, Leike a partagé un fil de discussion sur X à propos de son décision de quitter l’entreprise, qu’il a qualifié de « l’une des choses les plus difficiles que j’ai jamais fait, parce que nous devons de toute urgence trouver comment orienter et contrôler les systèmes d’IA beaucoup plus intelligents que nous.
Leike a écrit qu’il avait rejoint OpenAI parce qu’il pensait que « ce serait le meilleur endroit au monde pour faire cette recherche », mais que il est « en désaccord avec les dirigeants d’OpenAI sur les principales priorités de l’entreprise depuis un certain temps, jusqu’à ce que nous atteignions enfin un point de rupture ». Il a poursuivi le fil de discussion en écrivant qu’OpenAI devrait donner la priorité à la sécurité dans la recherche de l’intelligence artificielle générale, ou AGI.
Sutskever et Leike rejoignent un liste des autres employés d’OpenAI qui ont partis l’entreprise récemment, y compris d’autres membres de l’équipe de superalignement et des chercheurs travaillant sur la politique et la gouvernance de l’IA. Les annonces sont arrivées un jour après OpenAI. a révélé son
le plus récent chatbot IA multimodal, ChatGPT-4o. the company recently, including others from the superalignment team and researchers working on AI policy and governance. The announcements came a day after OpenAI revealed its newest multimodal AI chatbot, ChatGPT-4o.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.