L’ancien scientifique en chef d’OpenAI lance une nouvelle startup d’IA axée sur la « superintelligence » sûre

Ilya Sutskever dirigait l’équipe d’OpenAI centrée sur la réduction des dangers de l’IA avancée

Nous pouvons gagner une commission sur les liens sur cette page.
Ilya Sutskever a quitté OpenAI en mai, où il co-dirige l’équipe de « super alignement » de l’entreprise.
Ilya Sutskever a quitté OpenAI en mai, où il co-dirige l’équipe de « super alignement » de l’entreprise.
Photo: Jack Guez/AFP (Getty Images)

Après presque une décennie à superviser la superintelligence en tant que scientifique en chef de intelligence artificielle démarrage OpenAI, Ilya Soutskever est parti en mai. Un mois plus tard, il a lancé sa propre entreprise d’IA : Safe Superintelligence Inc.

Publicité

« Nous avons lancé le premier laboratoire SSI au monde, avec un seul objectif et un seul produit : une superintelligence sûre. Sutskever a écrit mercredi sur X, anciennement Twitter. «Nous y parviendrons grâce à des percées révolutionnaires produites par une petite équipe crackée.”

Sutskever est rejoint dans sa nouvelle entreprise par Daniel Gross, qui dirigeait auparavant les efforts d’Apple en matière d’IA, et Daniel Levy, un autre ancien chercheur d’OpenAi. La start-up possède des bureaux à Tel-Aviv et à Palo Alto, en Californie.

Publicité

Aux côtés de Jan Leike, qui a également quitté OpenAI en mai et qui travaille désormais chez Anthropic, une société d’IA. lancé par d’anciens employés d’OpenAI — Sutskever dirigé l’équipe de Superalignment d’OpenAI. L’équipe était concentrée sur le contrôle des systèmes d’IA et de garantir que l’IA avancée ne poserait pas un danger à l’humanité. Il a été dissous peu de temps après le départ des deux dirigeants.

Publicité

Safe Intelligence — comme l’indique son nom —sera se concentrera sur des efforts de sécurité similaires à ce que l’ancienne équipe de Sutskever a fait.

Publicité

« SSI est notre mission, notre nom et l’ensemble de notre feuille de route de produits, car c’est notre seul objectif », ont écrit les cofondateurs de l’entreprise. dans un lettre publique. « Notre objectif singulier signifie qu’aucune distraction par des frais généraux de gestion ou des cycles de produits , et notre modèle d’affaires signifie que la sûreté, la sécurité et le progrès sont le tout à l’abri des pressions commerciales à court terme.

L’entreprise promet également que son « orientation singulière » empêchera les interférences de la gestion ou les cycles de produits de gêner leur travail. Plusieurs membres d’OpenAI, dont un membre fondateur Andreï Karpathy, ont quitté l’entreprise ces derniers mois. Plusieurs anciens collaborateurs ont signé le mois dernier un lettre ouverte tirer la sonnette d’alarme sur les « risques sérieux” chez OpenAI concernant les problèmes de surveillance et de transparence.

Publicité

Sutskever était l’un des membres du conseil d’administration d’OpenAI qui a tenté d’évincer un autre co-fondateur et PDG Sam Altman en novembre, qui a été rapidement réintégré. Les administrateurs ont eu des critiques sur la gestion par Altman de la sécurité de l’IA et des allégations de comportement abusif. Helen Toner, membre, a déclaré que le comportement manipulateur et les mensonges d’Altman avaient créé une culture toxique que les dirigeants qualifiaient d’“abus toxique”.

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité