
OpenAI a lancé son Équipe Superalignement il y a près d’un an, dans le but ultime de contrôler d’hypothétiques systèmes d’IA super-intelligents et de les empêcher de se retourner contre les humains. Les gens étaient inquiets : pourquoi une équipe comme celle-ci devait-elle exister en premier lieu ? Maintenant, quelque chose de plus préoccupant s’est produit : les chefs d’équipe, Ilya Sutskever et Jan Leike, quittez OpenAI.
La démission de la direction de Superalignment est la dernière d’une série de départs notables de l’entreprise, dont certains provenaient de l’intérieur de Sutskever et L’équipe de Leike axée sur la sécurité. En novembre 2023, Sutskever et le conseil d’administration d’OpenAI ont mené un effort raté pour évincer le PDG Sam Altman. Six Des mois plus tard, plusieurs membres du personnel d’OpenAI ont quitté l’entreprise, soit ils s’exprimaient ouvertement sur la sécurité de l’IA, soit ils travaillaient dans des équipes de sécurité clés.Sutskever a fini par s’excuser pour le coup d’État (mon mauvais mec !) et a signé une lettre aux côtés de 738 employés d’OpenAI (sur 770 au total) demandant de réintégrer Altman et le président Greg Brockman. Cependant, selon un copie de la lettre obtenue par le New York Times avec 702 signatures
(la copie publique la plus complète que Gizmodo a pu trouver), plusieurs membres du personnel qui ont maintenant démissionné n’ont pas signé la déclaration de soutien à leadership d’OpenAI ou ont été à la traîne.Les noms des membres de l’équipe Superalignment Jan Leike, Leopold Aschenbrenner et William Saunders, qui ont démissionné depuis, n’apparaissent pas à côté de plus de 700 personnes. d’autres membres d’OpenAI montrant leur soutien à Altman et Brockman dans le Fois
‘ copie. Andrej Karpathy, chercheur en IA de renommée mondiale, et Daniel Kokotajlo et Cullen O’Keefe, anciens membres d’OpenAI, n’apparaissent pas non plus dans cette première publication. version de la lettre et ont depuis quitté OpenAI. Ces personnes peuvent avoir signé la dernière version de la lettre pour signaler leur soutien, mais si tel est le cas, ils semblent avoir été les derniers à le faire.Gizmodo a contacté OpenAI pour obtenir des commentaires sur qui dirigera l’équipe de Superalignment à partir de main mais nous ne l’avons pas immédiatement fait réponse.Plus généralement, la sécurité chez OpenAI a toujours été un sujet de discorde. C’est ce qui a poussé Dario et Daniela Amodei en 2021.
pour créer leur propre entreprise d’IA
, Anthropic, aux côtés de neuf autres anciens employés d’OpenAI. Les préoccupations en sécurité étaient également ce qui aurait conduit les membres du conseil d’administration à but non lucratif d’OpenAI à évincer Altman et Brockman. Ces membres du conseil d’administration ont été remplacés par des infâmes entrepreneurs de la Silicon Valley.OpenAI compte encore de nombreuses personnes qui travaillent sur la sécurité dans l’entreprise. Après tout, la mission déclarée de la startup est de créer en toute sécurité AGI. cela profite à l’humanité ! Cela dit, voici la liste de Gizmodo des défenseurs notables de la sécurité de l’IA qui ont quitté OpenAI depuis l’éviction d’Altman. sur un ordinateur ou continuez à faire défiler le mobile. Ilya Sutskever & Jan Leike
Getty Images