OpenAI et le robot AI Copilot de Microsoft sont sur la sellette pour les images à caractère sexuel et violant le droit d’auteur

L’ingénieur de Microsoft Shane Jones a envoyé une lettre aux régulateurs américains demandant une enquête sur la réponse de Microsoft aux problèmes avec Copilot

Nous pouvons gagner une commission sur les liens sur cette page.
Satya Nadella, PDG de Microsoft, s’exprime lors de l’événement en direct de Microsoft à New York.
Satya Nadella, PDG de Microsoft, s’exprime lors de l’événement en direct de Microsoft à New York.
Photo: Lucas Jackson (Reuters)

Ingénieur MicrosoftShaneJones a déposé une lettre à la Commission fédérale du commerce (FTC) mercredi, alléguant que son outil de conception d’IA Copilot n’est « pas » sûr.

Publicité

Jones a déclaré à CNBC lors d’une interview qu’il était capable d’utiliser Copilot pour générer des images d’adolescents jouant avec des fusils d’assaut. Il a également déclaré que l’outil produirait des images non sollicitées. des images violentes et sexualisées de femmes et celles qui peuvent enfreindre les lois sur le droit d’auteur.

C’est parce qu’il utilise DALL-E3, a déclaré Jones. Jones allègue que DALL-E-3, le générateur d’images d’OpenAI, présente une vulnérabilité qui a permis lui de contourner ses mesures de protection conçues pour empêcher un tel contenu. Jones a déclaré qu’il y avait des « problèmes systémiques » avec DALL-E-3 dans sa lettre à la FTC.

Publicité

«DALL-E3 a tendance à inclure involontairement des images qui objectivent sexuellement les femmes, même lorsque l’invite fournie par l’utilisateur est complètement inoffensive. ", a écrit Jones. Il a noté que le problème a été documenté par OpenAI lui-même (pdf). La start-up a déclaré dans un rapport en octobre 2023 que DALL-E 3 génére parfois un « contenu suggestif ou limite racé.” OpenAI a également noté que « les modèles d’IA à vision linguistique peuvent démontrer une tendance à l’objectivation sexuelle des filles et des femmes. » Jones a déclaré que Microsoft n’a pas résolu ce qu’il a appelé un « problème connu » avec DALL-E3 dans la version utilisée par Copilot Designer.

Publicité

Microsoft et OpenAI n’ont pas immédiatement répondu aux demandes de commentaires de Quartz, mais Microsoft a déclaré à CNBC qu’il était « déterminé à répondre à toutes les préoccupations. les employés ont conformément aux politiques de notre entreprise”et apprécie les employés qui cherchent à « améliorer encore la sécurité [des] produits.”

Publicité

Le chatbot Copilot de Microsoft a récemment été critiqué également. Le chatbot a dit à un scientifique en méta données à l’aide de l’outil « [peut-être]que vous n’ayez rien pour vivre », lorsqu’on lui a demandé s’il devrait « simplement en finir avec tout cela ». Les chatbots de Microsoft, Google et OpenAI ont tous été scruté pour des erreurs très médiatisées, de la référence à de faux procès à la création d’images historiquement inexactes de nazis de diverses origines raciales.

Jones a déclaré que Microsoft n’avait pas pris de mesures pour résoudre le problème après avoir déposé des plaintes internes et que l’entreprise lui avait demandé de supprimer un réseau social. publication dans les médias décrivant le problème. Il a cité Google comme exemple de la manière de gérer le problème, notant que l’entreprise a suspendu le génération de personnes dans les images grâce à Google Gemini quand il fait face à des plaintes similaires.

Publicité

L’ingénieur a demandé à la FTC d’enquêter sur les décisions de gestion de Microsoft, les processus de signalement d’incidents et si l’entreprise a interféré avec sa tentative de notifier OpenAI. de la question.

La FTC a confirmé à Quartz qu’elle avait reçu la lettre de Jones mais a refusé de commenter.

Publicité

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité