Bonjour, membres de Quartz,
Personne n’a expliqué d’où viennent ces noms, mais ils sont magnifiques : Charcoal Typhoon, Salmon Typhoon, Crimson Sandstorm, Emerald Sleet et Blizzard de forêt.
Même s’ils ressemblent à des phénomènes météorologiques exotiques, ils le sont en fait. malveillant affilié à un État utilisateurs des services OpenAI. Le terme technique pour eux, dans la déclaration d’OpenAI plus tôt cette semaine, il s’agit d’« acteurs de menace ». Tous leurs comptes ont désormais été désactivés, mais pas avant que les experts en cybersécurité n’aient pris une mesure. de qui ils étaient et du type de dommages qu’ils cherchaient à commettre. (Plus d’informations à ce sujet ci-dessous.)
La nature de ces acteurs menaces n’est pas inconnue. Vous vous en souviendrez peut-être dans diverses préquelles : la cyberingérence russe lors des élections américaines de 2016, par exemple, ou le Attaques de ransomware basées en Iran en 2021. Mais leurs capacités ont été maintenant considérablement améliorées par le type de grands modèles langagiers (LLM) et d’outils d’intelligence artificielle générative que les entreprises comme OpenAI build.
Déjà, des experts en cybersécurité ont visualisé certaines manières dont les pirates informatiques et les acteurs malveillants profitent des LLM. Les volumes de données qu’un modèle d’IA can scan sont exponentiellement plus grands que tout ce qu’un programme humain ou de second ordre peut faire. « Les algorithmes d’IA peuvent être entraînés pour générer des les logiciels malveillants qui modifient constamment leur code, ce qui rend difficile la détection et le blocage des logiciels antivirus », a déclaré Amani Ibrahim, un expert en cybersécurité. a écrit sur LinkedIn en septembre dernier. »[L]es attaques adverses peuvent contourner les mesures de sécurité, telles que les systèmes de détection d’intrusion ou les scanners de logiciels malveillants, en générant des entrées malveillantes qui ne se distinguent pas des légitimes. »
C’est comme si elle regardait vers l’avenir, parce que c’était exactement ce que Salmon Typhoon et les quatre autres entités faisaient en les utilisant à mauvais escient. d’OpenAI.
TOUS LES MÉCHANTS
Que ces acteurs de menace météorologiques tentaient-ils d’accomplir ?
🌲 Blizzard de forêt est un acteur du renseignement militaire russe qui a ciblé les organisations de défense, du gouvernement, des organisations à but non lucratif et des technologies de l’information tout au long de la guerre en Ukraine. a utilisé des LLM pour manipuler des fichiers et rationaliser ses opérations techniques, mais aussi pour en savoir plus sur les capacités des satellites et les technologies radar.
🐠 Typhon au Saumon, un acteur de menace chinois, déploie des malwares qui lui donnent un accès à distance à des systèmes compromis. des informations disponibles au public sur plusieurs agences de renseignement et des acteurs menaces régionaux , une aide au codage et des recherches sur les façons communes que les processus pourraient être masqués un système, » OpenAI a dit.
◼️ Typhon au charbon, un autre acteur chinois, a utilisé les services OpenAI pour la recherche et le débogage de code, ainsi que pour créer du contenu à utiliser dans des campagnes de phishing.
🌧️ Grésil émeraude est une entité nord-coréenne qui envoie des courriels de phishing à d’éminents experts de la Corée du Nord, en vue de compromettre ou de recueillir des renseignements. d’eux. Il a utilisé OpenAI LLM pour identifier ces experts, ainsi que pour rédiger du contenu pour ses expéditions de phishing.
🟥 Tempête de sable pourpre, une entité iranienne liée au Corps des Gardes de la révolution islamique, a également généré du contenu pour des e-mails de hameçonnage. En outre, elle a utilisé des LLM pour rechercher des moyens dans lequel les logiciels malveillants pourraient passer inaperçus.
UN GRAND NUMÉRO
300 : Le nombre d’acteurs de menace uniques qui Suivis de Microsoft Threat Intelligence. Cela comprend 160 acteurs états nations et 50 groupes de ransomwares.
LE PISTOLET PARTAGE
Peut-être qu’un jour, nous reviendrons sur les révélations de cette semaine concernant les typhons, la tempête de sable, la neige fondue et le blizzard comme quelque chose qui ressemble au pistolet de départ. : le début d’une course aux armements en IA. Alors que les cyber-attaquants cooptent des modèles d’IA complexes, des entreprises comme OpenAI devront en construire davantage des modèles complexes qui n’arrivent pas encore en tête, incitant à leur tour les cyberattaquants à les coopter... Vous voyez l’idée.
Il s’agit bien sûr d’une excellente affaire pour les entreprises elles-mêmes. Puisqu’elles construiront également des solutions à ces problèmes de cybersécurité, elles être soudainement dans le domaine de la fourniture de la maladie ainsi que du remède, pour ainsi dire. Et c’est avant même que les LLM n’aient été utilisé par des acteurs malveillants d’une manière vraiment originale. À l’heure actuelle, comme Joseph Thacker, un ingénieur en IA, l’a dit au site d’actualités sur la cybersécurité Dark Reading, les pirates informatiques utilisent l’IA simplement pour accélérer leur traitement et élargir leur échelle.
« Si un acteur menaçant trouvait un nouveau cas d’utilisation, il pourrait toujours être furtif et ne pas encore être détecté par ces entreprises. ce n’est pas impossible », a déclaré Thacker. « J’ai vu des agents d’IA entièrement autonomes qui peuvent « pirater » et trouver de vraies vulnérabilités, donc si des mauvais acteurs ont développé quelque chose de similaire, ce serait dangereux.
Pour l’instant, a déclaré OpenAI dans sa déclaration, son modèle GPT-4 n’offre que des « capacités incrémentielles limitées pour les tâches de cybersécurité malveillantes au-delà de ce que est déjà réalisable avec des outils accessibles au public et non basés sur l’IA. » Cela n’a pas été dit sur le point évident. Il y aura un GPT-5, alors un GPT-6, et au-delà. À terme, sans aucun doute, Thacker rencontrera son cas d’utilisation vraiment nouveau pour une cyberattaque basée sur l’IA.
UNE 💻 CHOSE
Ce que l’IA enlève d’une main, elle le donne de l’autre. Les hackers chinois ont tenté de s’infiltrer dans les transports et les infrastructures américains. réseaux de manière furtive – et l’IA a aidé les enquêteurs du renseignement américains à suivre ces attaques. sont trop difficiles à repérer pour un humain. Leur mode opératoire particulier est de passer pour un trafic « ordinaire » sur les réseaux cibles, mais ils laissent tout de même des modèles. Et s’il y a une chose que les outils d’IA font bien, c’est de repérer les modèles ; c’est au cœur. de la comment les LLM apprennent et de ce pour qu’ils sont formés à faire. Mais de ces outils de cybersécurité pilotés par l’IA sont coûteux, et les experts sont inquiets que certaines entreprises et certains gouvernements ne pourront pas se les permettre, alors que d’autres le feront, créant ainsi un nouveau « seuil de pauvreté en matière d’IA » .
Merci d’avoir lu ! Et n’hésitez pas à nous contacter avec des commentaires, des questions ou des sujets sur lesquels vous souhaitez en savoir plus.
Passez un week-end sans méchanceté,
— Samanth Subramanian, rédacteur en Bref du week-end
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.