Moins de deux semaines après avoir quitté OpenAI, l’un des anciens responsables de la sécurité de l’intelligence artificielle de l’entreprise a annoncé qu’il avait atterri chez l’un de ses rivaux .
Jan Leike, qui a co-dirigé OpenAI désormais dissoute « Équipe Superalignment“, qui était responsable des dangers existentiels de l’IA, a démissionné de l’entreprise plus tôt ce mois-ci. Mardi, Leike a déclaré le X qu’il était « excité » de rejoindre la société d’IA Anthropic “pour continuer la mission de superalignement." Il a ajouté que sa nouvelle équipe « travaillera sur une recherche d’alignement.
Anthropic, qui a récemment obtenu un Un investissement de 4 milliards de dollars d’Amazon, a déclaré sa dernière famille de modèles d’IA sortie en mars, Claude 3, surperformé le GPT-4 d’OpenAI.
L’entreprise a été fondée par Daniela et Dario Amodei, anciens employés d’OpenAI, en 2021 pour développer des chatbots « plus sûrs ». Les frères et sœurs Amodei a tenté à OpenAI plus tôt ce mois-ci, déclarant lors du Sommet technologique de Bloomberg que son modèle Claude 3 Opus « est le modèle d’IA le plus performant et le plus puissant disponible partout. dans le monde. »
Leike a annoncé son départ d’OpenAI après que son co-responsable, Ilya Sutskever, qui a également cofondé l’entreprise et en a été le scientifique en chef, a déclaré qu’il était Leike a qualifié sa décision de partir de « l’une des choses les plus difficiles que j’ai jamais faites, car nous devons de toute urgence comprendre comment pour diriger et contrôler les systèmes d’IA beaucoup plus intelligents que nous.
Leike a écrit qu’il avait rejoint OpenAI parce qu’il pensait que l’entreprise « serait le meilleur endroit au monde pour faire cette recherche », mais qu’il était « en désaccord avec les dirigeants d’OpenAI sur les principales priorités de l’entreprise depuis un certain temps, jusqu’à ce que nous atteignions enfin un point de rupture » . " Il a poursuivi en écrivant qu’OpenAI devrait donner la priorité à la sécurité dans la mesure où elle recherche l’intelligence artificielle générale, ou AGI.
OpenAI aurait n’a pas tenu ses engagements envers l’équipe Superalignment qu’elle a annoncé en juillet dernier. Les demandes d’accès aux GPU, ou unités de traitement graphiques, de l’équipe, ont été à plusieurs reprises refusées, et elle n’a jamais a été sur le point de recevoir son budget de puissance de calcul promis de 20 %, Fortune rapportée, citant des sources familières avec le affaire.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.