En juillet dernier, OpenAI a annoncé son Equipe « Superalignement », une unité dédiée au contrôle des dangers existentiels de l’intelligence artificielle — un effort que l’entreprise a déclaré qu’elle consacrait 20 % de sa puissance de calcul à au cours des quatre prochaines années. Mais l’entreprise aurait n’a pas tenu ses engagements.
Selon les rapports, les demandes de l’équipe Superalignment pour accéder aux GPU (ou aux unités de traitement graphiques, qui sont utilisées dans la formation et l’exécution de modèles d’IA) ont été rejetés à plusieurs reprises par les dirigeants d’OpenAI. Le budget de puissance de calcul promis par l’équipe n’a jamais non plus atteint 20 %, a rapporté Fortune, citant des personnes anonymes qui connaissent l’équipe. OpenAI a dissous l’équipe la semaine dernière, après la démission de ses co-responsables Ilya Sutskever et Jan Leike de l’entreprise. OpenAI n’a pas immédiatement répondu à une demande de commentaire.
Des sources ont déclaré à Fortune que l’équipe Superalignment n’avait jamais reçu la puissance de calcul promise et qu’elle avait reçu beaucoup moins du budget de calcul régulier de l’entreprise. Une personne a déclaré qu’OpenAI n’avait pas établi de conditions claires sur la manière dont les 20 % de puissance de calcul promis devaient être alloués, par exemple, si ce serait « 20 % par an pendant quatre ans » ou « 5 % par an pendant quatre ans ».
Pendant ce temps, l’équipe Superalignment a été informée à plusieurs reprises par Bob McGrew, vice-président de la recherche chez OpenAI, que c’est Les demandes de GPU supplémentaires au-delà de ce qui était déjà budgétisé ont été refusées. Mais D’autres dirigeants d’OpenAI, y compris Mira Murati, directrice de la technologie, ont été impliqués dans le rejet des demandes, ont déclaré des sources à Fortune.
Ce changement d’investissement n’augure rien de bon pour l’équipe de sécurité. Sans la puissance de calcul qui lui est allouée, l’équipe de Superalignment n’a pas été en mesure d’aller plus loin. recherche ambitieuse, a déclaré une personne à Fortune. Des sources ont également confirmé les propos de Leike. compte de l’expérience de l’équipe qu’il a partagé sur X après avoir annoncé sa démission de l’entreprise. Leike a écrit que « la culture et les processus de sécurité sont passés au second plan produits brillants », et que l’équipe avait parfois du mal à obtenir des calculs et qu’il devenait de plus en plus difficile d’obtenir cette recherche cruciale. fait.”
Certaines sources ont déclaré à Fortune que l’accès de l’équipe à la puissance de calcul s’était détérioré après que Sam Altman, directeur général d’OpenAI, ait été temporairement évincé en novembre, un effort. dirigé par Sutskever, qui était co-fondateur et scientifique en chef de l’entreprise. Cependant, une personne a déclaré que les problèmes étaient antérieurs à l’éviction. .Sutskever n’a pas eu accès à l’équipe Superalignment après Thanksgiving, ont indiqué des sources.
Sutskever et Leike ont rejoint un liste des autres employés d’OpenAI qui ont partis l’entreprise récemment, y compris d’autres membres de l’équipe Superalignment et des chercheurs travaillant sur la politique et la gouvernance de l’IA.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.