Ces chatbots de petite amie IA sont vraiment axés sur la récolte de données

Les chatbots encouragent activement les utilisateurs à partager des détails qui sont bien plus personnels que dans une application classique.

Nous pouvons gagner une commission sur les liens sur cette page.
Un portrait d’une femme qui semble être généré par l’IA.
Photo: Vladimir Vladimirov (Getty Images)

Vous êtes seul le jour de la Saint-Valentin ? L’IA peut vous aider. Du moins, c’est ce que vous diront un certain nombre d’entreprises qui vendent des chatbots « romantiques ». À mesure que l’histoire d’amour de votre robot se déroule, il y a un compromis que vous ne réalisez peut-être pas que vous faites. D’après une nouvelle étude de Mozilla*Privacy Projet non inclus, Petites amies et petits amis de l’IA récoltent des informations personnelles choquantes et presque tous vendent ou partagent les données qu’ils collectent.

Publicité

« Pour être tout à fait franc, les petites-amies et les petits-amis de l’IA ne sont pas vos amis », a déclaré Misha Rykov, un chercheur de Mozilla, dans un communiqué. « Bien qu’ils soient commercialisés comme quelque chose qui améliorera votre santé mentale et votre bien-être, ils se spécialisent dans la lutte contre la dépendance, la solitude et la toxicité. tout en récupérant autant de données que possible de votre part.

Mozilla a creusé dans 11 chatbots romantiques IA différents, y compris des applications populaires telles que Replika, Chai, Romantic AI, EVA AI Chat Bot & Soulmate, et CrushOn.AI. le label Confidentialité non incluse, plaçant ces chatbots parmi les pires catégories de produits que Mozilla ait jamais évalués. Les applications mentionnées dans cette histoire n’a pas immédiatement répondu aux demandes de commentaires.

Publicité

Vous avez déjà entendu des histoires sur des problèmes de données, mais selon Mozilla, les copines IA violent votre vie privée de « nouvelles manières troublantes ». ,CrushOn.AI collecte des détails, notamment des informations sur la santé sexuelle, l’utilisation de médicaments et les soins d’affirmation de genre. 90 % des applications peuvent se vendre ou partagez des données utilisateur pour des publicités ciblées et à d’autres fins, et plus de la moitié ne vous laissera pas supprimer les données qu’ils collectent. était également un problème. Une seule application, Genesia AI Friend & Partner, répondait aux normes de sécurité minimales de Mozilla.

Publicité

L’une des découvertes les plus frappantes a eu lieu lorsque Mozilla a compté les trackers dans ces applications, des petits morceaux de code qui collectent des données et les partagent. avec d’autres sociétés à des fins publicitaires et à d’autres fins. Mozilla a découvert que les applications AI Girlfriend utilisaient en moyenne 2 663 trackers par minute, bien que cela Ce nombre a été augmenté par Romantic AI, qui a appelé un nombre impressionnant de 24 354 trackers en seulement une minute d’utilisation de l’application.

Publicité

Le désordre en matière de confidentialité est encore plus troublant parce que les applications vous encouragent activement à partager des détails qui sont bien plus personnels que le genre de chose que vous pourriez saisir dans une application typique. EVA AI Chat Bot et Soulmate poussent les utilisateurs à « partager tous vos secrets et désirs » et demande spécifiquement des photos et des enregistrements vocaux. Il convient de noter qu’EVA était le seul chatbot qui n’a pas été critiqué pour la façon dont il utilise ces données, même si l’application présentait des problèmes de sécurité.

Mis à part les problèmes de données, les applications ont également fait des affirmations douteuses sur leur utilité. EVA AI Chat Bot et Soulmate se facturent eux-mêmes. en tant que “fournisseur” de logiciels et de contenus développés pour améliorer votre humeur et votre bien-être. Romantic AI dit qu’il est là pour maintenir votre SANTÉ MENTALE. » Cependant, lorsque vous lisez les conditions et les services de l’entreprise, ils font tout leur possible pour se distancier de leurs propres réclamations. Les politiques de Romantic AI, par exemple, stipulent qu’elle n’est « ni un fournisseur de soins de santé ni de services médicaux, ni une société de soins médicaux ou de santé mentale. Service, ou autre service professionnel.”

Publicité

Il s’agit probablement d’un motif juridique important à aborder, compte tenu de l’historique de cette application. Replika aurait encouragé la tentative d’un homme de assassiner la reine d Angleterre. Un chatbot Chai prétendument a encouragé un utilisateur à se suicider.

Cet article a été initialement publié sur Gizmodo.

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité