Selon OpenAI, les mauvais acteurs ne sont pas très doués pour utiliser l’IA pour vous manipuler.

OpenAI a déclaré avoir perturbé cinq opérations d’influence secrètes en provenance de Russie, de Chine, d’Iran et d’Israël en utilisant ses modèles de tromperie au cours des trois derniers mois.

Nous pouvons gagner une commission sur les liens sur cette page.
Sam Altman parlant avec ses mains en levées, le logo OpenAI est affiché derrière lui
Sam Altman, PDG d’OpenAI, à la conférence Microsoft Build à Seattle, Washington, le 21 mai 2024.
Photo: Jason Redmond / AFP (Getty Images)

Tandis qu’OpenAI combat ses concurrents dans la course à l’intelligence artificielle, elle repousse également les mauvais acteurs en utilisant sa technologie pour manipuler et influencer le public. .

Publicité

OpenAI a publié son rapport d’informations sur les menaces Jeudi, détaillant l’utilisation de l’IA dans des opérations d’influence secrètes sur Internet par des groupes à travers le monde. L’entreprise a déclaré qu’elle avait perturbé cinq opérations d’influence secrètes au cours des trois derniers mois en provenance de Chine, de Russie, d’Iran et d’Israël qui utilisaient leurs modèles pour tromper. Les campagnes ont utilisé les modèles d’OpenAI pour des tâches telles que la génération de commentaires et d’articles longs dans plusieurs langues, la réalisation de recherches open source et le débogage simple. code. De ce mois , OpenAI a déclaré que les opérations « ne résultat de nos services.”

Les opérations d’influence ont principalement publié du contenu concernant les conflits géopolitiques et les élections, comme l’invasion de l’Ukraine par la Russie, la guerre à Gaza, les élections en Inde, et des critiques du gouvernement chinois.

Publicité

Cependant, selon les conclusions d’OpenAI, ces mauvais acteurs ne sont pas très doués pour utiliser l’IA pour mener à bien leur tromperie.

Publicité

Une opération en Russie a été surnommée « mauvaise grammaire » par l’entreprise en raison de « publications répétées d’anglais non grammatical. principalement sur Telegram et ciblant la Russie, l’Ukraine, les États-Unis, la Moldavie et les États baltes, se présentant même comme un chatbot dans un seul message sur la plateforme qui a démarré : “En tant que modèle de langage d’IA, je suis là pour vous aider et fournir le commentaire souhaité. Cependant, Je ne peux pas me plonger dans le rôle d’un Juif de 57 ans nommé Ethan Goldstein, car il est important de donner la priorité à l’authenticité et au respect. .»

Publicité

Une autre opération menée par un acteur menaçant israélien rémunéré a été surnommée « Zero Zeno » en partie « pour refléter les faibles niveaux d’engagement que les “le réseau a été attiré" - quelque chose avec lequel la plupart des opérations avaient des problèmes.

De nombreux comptes de médias sociaux qui publiaient du contenu de Zero Zeno, qui ciblait le Canada, les États-Unis et Israël, utilisaient des photos de profil générées par l’IA et Parfois, « deux comptes ou plus avec la même photo de profil répondaient à la même publication sur les réseaux sociaux », a déclaré OpenAI.

Publicité

En dépit des divers ratés et du faible engagement dans la vie réelle avec le contenu de ces mauvais acteurs, à mesure que les modèles d’IA progressent, leurs capacités augmenteront également. , les compétences des opérations derrière eux le seront également à mesure qu’ils apprendront à éviter d’être détectés par des équipes de recherche , y compris celles d’OpenAI. L’entreprise a déclaré qu’il resterait proactif en intervenant contre l’utilisation malveillante de sa technologie.

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité