La version Microsoft Azure du générateur d’images d’OpenAI, DALL-E, a été présenté comme un outil de champ de bataille pour le Département de la Défense des États-Unis (DoD), initialement rapporté par L’interception Mercredi. Le rapport indique que l’argumentaire de vente des outils Azure OpenAI de Microsoft a été livré en octobre 2023, dans l’espoir probablement de capitaliser sur l’expertise de l’armée américaine. intérêt croissant pour l’utilisation de l’IA générative pour la guerre.
« Utiliser les modèles DALL-E pour créer des images afin de former des systèmes de gestion de combat », lit-on dans le discours de Microsoft au DoD, selon à un présentation obtenu par The Intercept. La phrase sur l’application militaire potentielle de DALL-E apparaît dans un diaporama intitulé « IA générative avec données du DoD » aux côtés de la marque Microsoft.
Azure propose de nombreux outils d’OpenAI, y compris DALL-E, grâce à Microsoft Un partenariat de 10 milliards de dollars avec l’organisation à but non lucratif. En ce qui concerne l’utilisation militaire, Microsoft Azure a l’avantage de ne pas être tenu aux embêtants et globaux d’OpenAI. mission: « pour garantir que l’intelligence générale artificielle bénéficie à l’ensemble de l’humanité.” Les politiques d’OpenAI interdisent d’utiliser ses services pour ”faire du mal aux autres“, ou pour les logiciels espions. Cependant, Microsoft propose les outils d’OpenAI sous son parapluie d’entreprise, où l’entreprise s’est associée aux forces armées pour décennies, selon un porte-parole de Microsoft.
« Il s’agit d’un exemple de cas d’utilisation potentiels qui ont été éclairés par des conversations avec des clients sur l’art du possible avec l’IA générative. a déclaré un porte-parole de Microsoft dans un e-mail en réponse à la présentation.
L’année dernière, OpenAI (et non Azure OpenAI) a interdit d’utiliser ses outils à des fins militaires et de guerre et pour le développement d’armes, comme cela est documenté sur le Archives Internet. Cependant, OpenAI a discrètement supprimé une ligne de ses Politiques universelles en janvier 2024, repéré pour la première par L’interception. Quelques jours plus tard, Anna Makanju, vice-présidente des affaires mondiales d’OpenAI, a dit à Bloomberg que c’était commencer à travailler avec le Pentagone. OpenAI a noté à l’époque que plusieurs cas d’utilisation de sécurité nationale s’alignent avec sa mission.
“Les politiques d’OpenAI interdisent l’utilisation de nos outils pour développer ou utiliser des armes, blesser autrui ou détruire des biens”, a déclaré un porte-parole d’OpenAI à un e-mail. « Nous n’étions pas impliqués dans cette présentation et n’avons pas eu de conversations avec des agences de défense américaines concernant les cas d’utilisation hypothétiques décrit. »
Les gouvernements du monde entier semblent considérer l’IA comme l’avenir de la guerre. Nous avons récemment appris qu’Israël utilise un système d’IA. nommé Lavande pour créer une « liste à tuer » de 37 000 personnes à Gaza, initialement rapportée par +972 magazine. Depuis juillet de l’année dernière, des responsables militaires américains expérimentent de grands modèles de langage pour des tâches militaires, selon Bloomberg.
L’industrie technologique a sans aucun doute pris remarque de cette énorme opportunité financière . L’ancien PDG de Google, Eric Schmidt, construit des drones kamikaze IA sous une société nommée Cigogne blanche. Schmidt fait un pont entre la technologie et le Pentagone depuis des années, et il dirige les efforts visant à utiliser l’IA en première ligne.
La technologie a longtemps été soutenue par le Pentagone, depuis les premières puces à semi-conducteurs dans les années 1950, il n’est donc pas surprenant que l’IA est adopté de la même manière. Bien que les objectifs d’OpenAI semblent nobles et pacifiques, son partenariat avec Microsoft lui permet de les masquer et de vendre son IA de leader mondial à l’armée américaine.
Une version de cet article paru à l’origine sur Gizmodo.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.