Tandis qu’OpenAI combat ses concurrents dans la course à l’intelligence artificielle, elle repousse également les mauvais acteurs en utilisant sa technologie pour manipuler et influencer le public. .
OpenAI a publié son rapport d’informations sur les menaces Jeudi, détaillant l’utilisation de l’IA dans des opérations d’influence secrètes sur Internet par des groupes à travers le monde. L’entreprise a déclaré qu’elle avait perturbé cinq opérations d’influence secrètes au cours des trois derniers mois en provenance de Chine, de Russie, d’Iran et d’Israël qui utilisaient leurs modèles pour tromper. Les campagnes ont utilisé les modèles d’OpenAI pour des tâches telles que la génération de commentaires et d’articles longs dans plusieurs langues, la réalisation de recherches open source et le débogage simple. code. De ce mois , OpenAI a déclaré que les opérations « ne résultat de nos services.”
Les opérations d’influence ont principalement publié du contenu concernant les conflits géopolitiques et les élections, comme l’invasion de l’Ukraine par la Russie, la guerre à Gaza, les élections en Inde, et des critiques du gouvernement chinois.
Cependant, selon les conclusions d’OpenAI, ces mauvais acteurs ne sont pas très doués pour utiliser l’IA pour mener à bien leur tromperie.
Une opération en Russie a été surnommée « mauvaise grammaire » par l’entreprise en raison de « publications répétées d’anglais non grammatical. principalement sur Telegram et ciblant la Russie, l’Ukraine, les États-Unis, la Moldavie et les États baltes, se présentant même comme un chatbot dans un seul message sur la plateforme qui a démarré : “En tant que modèle de langage d’IA, je suis là pour vous aider et fournir le commentaire souhaité. Cependant, Je ne peux pas me plonger dans le rôle d’un Juif de 57 ans nommé Ethan Goldstein, car il est important de donner la priorité à l’authenticité et au respect. .»
Une autre opération menée par un acteur menaçant israélien rémunéré a été surnommée « Zero Zeno » en partie « pour refléter les faibles niveaux d’engagement que les “le réseau a été attiré" - quelque chose avec lequel la plupart des opérations avaient des problèmes.
De nombreux comptes de médias sociaux qui publiaient du contenu de Zero Zeno, qui ciblait le Canada, les États-Unis et Israël, utilisaient des photos de profil générées par l’IA et Parfois, « deux comptes ou plus avec la même photo de profil répondaient à la même publication sur les réseaux sociaux », a déclaré OpenAI.
En dépit des divers ratés et du faible engagement dans la vie réelle avec le contenu de ces mauvais acteurs, à mesure que les modèles d’IA progressent, leurs capacités augmenteront également. , les compétences des opérations derrière eux le seront également à mesure qu’ils apprendront à éviter d’être détectés par des équipes de recherche , y compris celles d’OpenAI. L’entreprise a déclaré qu’il resterait proactif en intervenant contre l’utilisation malveillante de sa technologie.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.