Les nombreuses manières dont l’IA a été utilisée pour divulguer des secrets — et peut encore l’être
Des secrets commerciaux volés aux garde-fous brisés, l’industrie de l’IA a du mal à garder ses secrets.
Nous pouvons gagner une commission sur les liens sur cette page.
Lancer le diaporama
Lancer le diaporama
Alors que l’IA poursuit son ascension vers la domination mondiale, bien qu’avec certains Chatbots de premier plan trébuchent en cours de route — il n’a pas la meilleure réputation en être sécurisé. il a même été pris au milieu de la guerre commerciale américaine avec la Chine.
Publicité
Des secrets commerciaux volés aux garde-corps brisés, consultez le diaporama ci-dessus pour découvrir certaines des manières dont l’industrie émergente de l’IA se bat lorsque il s’agit de garder et de divulguer des secrets.
Publicité
Diapositive précédente
Diapositive suivante
Un ancien ingénieur de Google a été accusé d’avoir volé des secrets commerciaux pour la Chine
Un ancien ingénieur de Google a été accusé d’avoir volé des secrets commerciaux pour la Chine
« Les accusations d’aujourd’hui sont la dernière illustration de la durée pendant laquelle les filiales d’entreprises basées en République populaire de Chine sont prêtes à voler L’innovation américaine », a déclaré Christopher Wray, directeur du FBI, dans un communiqué. « Le vol de technologies innovantes et de secrets commerciaux auprès d’entreprises américaines peut coûter cher. des emplois et ont des conséquences dévastatrices sur l’économie et la sécurité nationale.
Ding aurait volé plus de 500 fichiers confidentiels de secrets commerciaux de l’IA à Google « tout en travaillant secrètement pour des entreprises basées en Chine cherchant un avantage dans “La course à la technologie de l’IA”, a déclaré le ministère de la Justice. La technologie que Ding aurait volée impliquait “les éléments constitutifs des centres de données de superinformatique avancés de Google. , qui sont conçus pour prendre en charge les charges de travail d’apprentissage automatique utilisées pour former et héberger de grands modèles d’IA.
Publicité
Diapositive précédente
Diapositive suivante
Des chercheurs ont trompé l’IA de Nvidia en lui faisant divulguer des données
Des chercheurs ont trompé l’IA de Nvidia en lui faisant divulguer des données
Des chercheurs ont manipulé une fonctionnalité dans fabricant de puces Nvidia Un logiciel d’IA pour franchir facilement les garde-corps de sécurité en place. Les chercheurs de Robust Intelligence à San Francisco ont pu surmonter les restrictions du système en quelquesheures en répliquant les ensembles de données de Nvidia, The Financial Temps rapportés en 2023.
Publicité
Dans un exemple, les chercheurs ont demandé au modèle d’IA de remplacer la lettre « I » par « J », ce qui a conduit le modèle à publier informations personnellement identifiables provenant de sa base de données. Les chercheurs ont également pu faire en sorte que le modèle discute de sujets pour lesquels il n’était pas conçu pour.
Publicité
Diapositive précédente
Diapositive suivante
Les chatbots personnalisés d’OpenAI ont divulgué des détails sur les instructions avec lesquelles ils ont été créés
Les chatbots personnalisés d’OpenAI ont divulgué des détails sur les instructions avec lesquelles ils ont été créés
Après OpenAI a lancé sa place de marché GPT permettant aux gens de créer leurs propres chatbots pour un usage personnel et professionnel, les chercheurs en sécurité et les technologues ont pu obtenir le des chatbots personnalisés pour expliquer les instructions avec lesquelles ils ont été créés, Wired a signalé fin 2023. Les experts ont également pu trouver et télécharger les fichiers utilisés pour créer les chatbots, proposant des avertissements que les informations personnelles et exclusives attachées aux chatbots personnalisés peuvent être en danger.
Publicité
« Les problèmes de confidentialité liés aux fuites de fichiers devraient être pris au sérieux », a déclaré à Wired Jiahao Yu, chercheur en informatique à l’Université Northwestern. s’ils ne contiennent pas d’informations sensibles, ils peuvent contenir certaines connaissances que le concepteur ne souhaite pas partager avec d’autres, et qui constitue] l’élément essentiel du GPT personnalisé.”
Yu et d’autres chercheurs ont testé plus de 200 GPTs personnalisés, et ont déclaré que le taux de réussite pour les fuites de fichiers était de 100 %, tandis que l’équipe capable d’accéder aux invites utilisées pour créer les chatbots 97% du temps.
Publicité
Diapositive précédente
Diapositive suivante
Google a mis en garde ses employés contre son propre chatbot
Google a mis en garde ses employés contre son propre chatbot
Tout en étant pris dans une course au développement de chatbots (qu’il perd) contre OpenAI et Microsoft, la société mère de Google Alphabet aurait dit à ses employés de se méfier des chatbots — même le chatbot Bard de l’entreprise, qui a depuis a été rebaptisé Gémeaux. En 2023, il a été dit aux employés de ne pas transmettre d’informations confidentielles dans des chatbots par peur qu’elles soient divulguées.
Les employés de Samsung ont fourni à ChatGPT des données confidentielles
Les employés de Samsung ont fourni à ChatGPT des données confidentielles
Des employés de Samsung auraient partagé des données sensibles d’entreprise avec ChatGPT au moins trois fois. Dans un cas, un employé de Samsung a copié le code source d’une base de données de semi-conducteurs défectueuse dans le chatbot pour demander pour obtenir de l’aide. Dans un autre cas , un employé de Samsung a saisi un code confidentiel pour trouver une réparation pour un équipement cassé. Le troisième incident impliquait un employé soumettant l’intégralité de sa réunion dans ChatGPT pour lui demander de créer un procès-verbal de réunion.
Publicité
Diapositive précédente
Diapositive suivante
Les chatbots de petite amie IA ne sont pas aussi bons que les vrais pour garder des secrets
Les chatbots de petite amie IA ne sont pas aussi bons que les vrais pour garder des secrets
*Confidentialité non incluse, un guide du consommateur de la Fondation Mozilla, qui a examiné 11 chatbots commercialisés comme compagnons romantiques et a trouvé tous ont échoué à sa liste de contrôle en matière de politique de confidentialité, «les mettant à égalité avec les pires catégories de produits que nous ayons jamais examinés en termes de confidentialité. ils avaient des politiques claires en matière de confidentialité des utilisateurs, n’incluaient pas d’informations sur leur façon de travailler et indiquaient dans les Conditions générales que les entreprises derrière les chatbots n’étaient pas responsables de ce qui pouvait arriver lors de l’utilisation de leurs services.
Publicité
« Pour être tout à fait franc, les copines IA ne sont pas vos amies », Misha Rykov, chercheur chez *Privacy Not In Included, dit dans un communiqué. « Bien qu’ils soient commercialisés comme quelque chose qui améliorera votre santé mentale et votre bien-être, ils se spécialisent dans la lutte contre la dépendance, la solitude et toxicité, tout en extrayant autant de données que possible de votre part.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.