La semaine dernière, Sam Altman s’est excusé pour les contrats d’OpenAI qui menaçait de récupérer les capitaux propres des anciens employés, affirmant dans un tweet qu’il « ne savait pas que cela se produisait et que j’aurais dû .” Maintenant, les documents fuite vers Vox Mercredi, ils ont suggéré qu’Altman le savait, montrant que le PDG et d’autres cadres supérieurs d’OpenAI avaient signé des documents qui détenaient des capitaux propres au-dessus des têtes de anciens salariés.
L’une des conditions qui risquaient de mettre en péril les capitaux propres d’un ancien employé d’OpenAI dans l’entreprise, d’une valeur potentielle de millions de dollars, était de parler négativement de OpenAI. Vox rapporte que des centaines de fuites de documents révèlent un schéma de tactiques à haute pression chez OpenAI pour amener les employés à signer des non-conformités ultra-restrictives -des accords de dénigrement et de non-divulgation. Dans certains cas, les employés n’avaient qu’une semaine pour renoncer à leurs capitaux propres ou accepter la muselière d’OpenAI.
Certaines de ces dispositions de récupération d’actions obtenues par Vox auraient été signées par Altman, directeur de la stratégie Jason Kwon, avec l’ancien de la société. Vice-présidente des ressources humaines Diane Yoon. La NDA ultra-restrictive aurait été signée par le directeur des opérations Brad Lightcap. Ces documents compliquent les réclamations de Des cadres supérieurs d’OpenAI qu’ils ne connaissaient pas.
Un porte-parole d’OpenAI déclare à Gizmodo que la société n’a pas et ne retirera jamais les actions acquises à un employé. Le porte-parole a réitéré le sentiment d’Altman selon lequel OpenAI supprime désormais les clauses de non-dénigrement de ses documents de sortie et libère les anciens employés de ces obligations.
« Nous sommes incroyablement désolés de ne changer que ce langage maintenant ; il ne reflète pas nos valeurs ni l’entreprise que nous souhaitons être”, a déclaré un porte-parole d’OpenAI dans une déclaration envoyée par courrier électronique à Gizmodo.
Certains employés clés ont quitté OpenAI récemment, et ils ont publié assez fortement leurs doléances en départ. Chercheur principal Jan Leike a démissionné la semaine dernière et a noté que « la culture et les processus de sécurité d’OpenAI sont passés au second plan au profit de produits brillants ». Gretchen Krueger, ancienne chercheuse en politiques d’OpenAI posté sur X Mercredi, elle a quitté l’entreprise et a partagé les inquiétudes de Leike. Cependant, elle avait aussi plus d’inquiétudes qui lui étaient propres.
« Nous devons faire davantage pour améliorer les éléments fondamentaux comme les processus de prise de décision, la responsabilité, la transparence, la documentation, l’application des politiques », a déclaré Krueger dans un communiqué. poster sur X.
Krueger a ensuite énuméré encore plus d’inquiétudes à propos d’OpenAI. Elle a averti que ces critiques « ne devraient pas être interprétées à tort comme étant étroites, spéculatives ou déconnectés. Ils ne le sont pas. » Dans un tweet de suivi, elle écrit que les entreprises technologiques peuvent priver les gens de leur pouvoir en semant la division parmi ceux qui Cela semble décrire indirectement la division qui se prépare au sein d’OpenAI depuis des mois maintenant, mise en lumière pour la première fois par l’éviction d’Ilya Sutskever. de Sam Altman.
Le rapport détaille comment la plupart des employés ont cédé sous la pression d’OpenAI et ont signé les NDA restrictives. Tandis qu’OpenAI affirme qu’ils n’ont pas récupéré les capitaux propres de quiconque, cela ne signifie certainement pas que l’entreprise n’a pas fait taire ses anciens employés sous la menace. Les anciens employés d’OpenAI semblent s’exprimer en masse contre les pratiques troublantes au sein de la start-up la plus en vogue de la Silicon Valley.
Une version de cet article paru à l’origine sur Gizmodo.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.