Alors que l’avènement de l’intelligence artificielle générative soulève des inquiétudes en matière de sécurité, une nouvelle start-up développant des systèmes d’IA sûrs a levé 1 milliard de dollars.
Safe Superintelligence (SSI), cofondée par Ilya Sutskever , cofondateur et ancien scientifique en chef d’OpenAI, a récolté 1 milliard de dollars en espèces. Les fonds seront utilisés pour la puissance de calcul et pour embaucher des chercheurs et des ingénieurs, Les dirigeants ont déclaré à Reuters.
La start-up se concentrera sur la création d’une « superintelligence sûre », ou de systèmes d’IA sûrs dotés d’un raisonnement de niveau humain et supérieur.
« SSI est notre mission, notre nom et toute notre feuille de route produit, car c’est notre seul objectif », ont écrit les cofondateurs dans un lettre publique« Notre concentration unique signifie que nous ne sommes pas distraits par les frais généraux de gestion ou les cycles de produits, et notre modèle commercial signifie que la sécurité, la sûreté et le progrès sont tous isolés des pressions commerciales à court terme. »
Après son tour de financement, qui comptait parmi ses investisseurs les poids lourds Andreessen Horowitz et Sequoia Capital, la start-up est valorisée à 5 milliards de dollars, a rapporté Reuters, citant des personnes anonymes au courant du dossier. SSI a refusé de partager son évaluation avec Reuters.
« Il est important pour nous d’être entourés d’investisseurs qui comprennent, respectent et soutiennent notre mission, qui est de nous lancer directement dans la sécurité de la superintelligence et, en particulier, de consacrer quelques années à la R&D sur notre produit avant de le mettre sur le marché », a déclaré Gross à Reuters.
Sutskever co-fondateur de la startup de 10 personnes en juin avec Daniel Gross, ancien responsable de l’IA chez Apple, et Daniel Levy, ancien chercheur d’OpenAI. Gross est directeur général de la start-up Safe AI, et Levy est scientifique principal, Sutskever étant scientifique en chef.
Sutskever a quitté OpenAI en mai après avoir dirigé pendant près d’un an l’équipe de « superalignement » de la start-up, qui se concentrait sur les dangers existentiels de l’IA. l’équipe a été dissoute après que Sutskever et son co-directeur, Jan Leike, aient démissionné du créateur de ChatGPT. Sutskever, qui a fait partie d’OpenAI pendant près d’une décennie, a joué un rôle dans l’éviction briève du directeur général d’OpenAI, Sam Altman en novembre.
« Nous avons identifié une nouvelle montagne à gravir, un peu différente de celle sur laquelle je travaillais auparavant », a déclaré Sutskever dans une déclaration partagée avec Quartz. « Nous n’essayons pas de suivre le même chemin plus rapidement. Si vous faites quelque chose de différent, il vous devient alors possible de faire quelque chose de spécial. »
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.