OpenAI et Microsoft ont déclaré mercredi qu’ils avaient trouvé et fermé des comptes OpenAI appartenant à « cinq acteurs malveillants affiliés à un État” à l’aide d’outils d’IA, notamment ChatGPT, pour mener des cyberattaques.
Les comptes fermés étaient associés à Charcoal Typhoon (CHROMIUM) et Salmon Typhoon (SODIUM), affiliés à la Chine, à Crimson Sandstorm (CURIUM), affiliés à l’Iran. Emerald Sleet (THALLIUM), affilié à la Corée du Nord, et Forest Blizzard (STRONTIUM), affilié à la Russie, selon OpenAI et Intelligence des menaces de Microsoft.
« Ces acteurs cherchaient généralement à utiliser les services OpenAI pour interroger des informations open source, traduire, trouver des erreurs de codage et exécuter des tâches de codage de base. OpenAI a déclaré dans un déclaration. OpenAI a déclaré que ses “résultats montrent que nos modèles offrent seulement des capacités limitées et incrémentielles pour des tâches de cybersécurité malveillantes.»
Forrest Blizzard, un acteur du renseignement militaire russe, a utilisé des grands modèles langagiers (LLM) pour rechercher « diverses technologies de satellite et de radar qui peuvent être liées aux opérations militaires conventionnelles en Ukraine », a déclaré Microsoft, et pour prendre en charge des tâches telles que la manipulation de fichiers « pour potentiellement automatiser ou optimiser les opérations techniques ».
Charcoal Typhoon et Salmon Typhoon, qui ont un historique de ciblage des sous-traitants de la défense américaine, des agences gouvernementales et des entités au sein de la technologie cryptographique. secteur », a utilisé des LLM pour exécuter des requêtes sur des agences de renseignement mondiales et diverses entreprises, générant du code et identifiant des erreurs de codage, et traduisant des tâches.
Crimson Sandstorm, Emerald Sleet et les deux acteurs chinois affiliés ont utilisé les outils d’OpenAI pour générer du contenu pour les campagnes de phishing, a déclaré OpenAI.
« Les groupes de cybercriminalité, les acteurs menaçants des États-nations et d’autres adversaires explorent et testent différentes technologies d’IA à mesure qu’elles émergent, dans le but de comprendre la valeur potentielle de leurs opérations et les contrôles de sécurité qu’ils devront peut-être contourner », a déclaré Microsoft.
Bien que les recherches des deux sociétés n’aient pas révélé d’« attaques significatives » de la part d’acteurs utilisant des outils étroitement surveillés, OpenAI et Microsoft ont présenté des approches supplémentaires. pour atténuer les risques croissants que des acteurs menaçants utilisent l’IA pour effectuer des tâches similaires.
Les deux sociétés ont déclaré qu’elles continueraient à surveiller et à perturber les activités associées aux acteurs menaçants, et à travailler avec d’autres partenaires du secteur pour partager des informations. sur l’utilisation connue de l’IA par des acteurs malveillants et informer le public et les parties prenantes de l’utilisation de leurs outils d’IA par des acteurs malveillants. acteurs.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.