Dans un épidémie de solitude continue, la montée en puissance des compagnons chatbots IA et des partenaires romantiques pourrait peut-être répondre aux besoins de certaines personnes, mais les chercheurs ont découvert que ces robots ne sont pas les meilleurs. d’amis lorsqu’il s’agit de protéger des secrets.
*Confidentialité non incluse, un guide du consommateur de la Fondation Mozilla qui évalue les politiques de confidentialité pour la technologie et d’autres produits, a examiné 11 chatbots commercialisés comme compagnons romantiques et a constaté que tous les chatbots ont obtenu des étiquettes d’avertissement, «les mettant à égalité avec les pires catégories de produits que nous ayons jamais examinés pour la confidentialité.”
Parmi les problèmes de confidentialité * Confidentialité non incluse découverts lors de l’examen des bots étaient un manque de politiques de confidentialité des utilisateurs et d’informations sur le comment de l’IA le travail des compagnons, ainsi que des conditions générales stipulant que les entreprises n’étaient pas responsables de ce qui pourrait arriver lors de l’utilisation de leurs chatbots.
« Pour être tout à fait franc, les copines IA ne sont pas vos amies », Misha Rykov, chercheur chez *Privacy Not In Included, dit dans un communiqué. « Bien qu’ils soient commercialisés comme quelque chose qui améliorera votre santé mentale et votre bien-être, ils se spécialisent dans la lutte contre la dépendance, la solitude et toxicité, tout en extrayant autant de données que possible de votre part.
Par exemple, CrushOn.AI, qui se présente comme un « chat IA avec personnage NSFW sans filtre », indique sous son « Confidentialité des données de santé des consommateurs . Politique » il « peut collecter » des informations sur « l’utilisation de médicaments prescrits », « des informations sur les soins d’affirmation du genre » et « en matière de reproduction ou de sexualité. informations sur la santé", dans les chats de personnages “pour faciliter”et”surveiller” le “chat pour la sécurité et un contenu approprié. La société a également déclaré il « peut collecter des enregistrements vocaux ”si les utilisateurs laissent un message vocal, contactent le support client ou se connectent avec l’entreprise par chat vidéo. CrushOn. AI n’a pas immédiatement répondu à une demande de commentaires de Quartz.
« Pour être tout à fait franc, les copines IA ne sont pas vos amies. »
RomanticAI, un service de chatbot qui annonce « un ami en qui peut avoir fiance », indique dans ses Conditions générales que les utilisateurs doivent reconnaître qu’ils “communiquent avec un logiciel dont nous ne pouvons pas contrôler en permanence l’activité.
*Confidentialité non incluse a constaté que 73 % des robots examinés ne partageaient aucune information sur la façon dont l’entreprise gère les problèmes de sécurité, et 64 % n’avait pas d’« informations claires sur le cryptage » ni même si l’entreprise l’utilisait. Tous, sauf un, des chatbots ont mentionné soit la vente, soit partageant des données d’utilisateur, ou n’incluait pas d’informations sur la comment il utilise les données d’utilisateur. les utilisateurs ont le droit de supprimer leurs données personnelles.
Un jour après qu’OpenAI ait ouvert sa boutique GPT en janvier, qui permet à quiconque de créer des versions personnalisées de son robot ChatGPT, Quartz. j’ai trouvé au moins huit “petites amies” Chatbots IA après une recherche de « petite-amie » sur le magasin. (Nous avons également rapidement décidé ne durerait pas.) OpenAI interdit en fait les GPT « dédiés à la promotion de la camaraderie romantique ou à la réalisation d’activités réglementées, ce qui montre que, parallèlement aux problèmes de confidentialité, les robots de compagnie pourraient être difficile à réglementer dans son ensemble.
Jen Caltrider, directrice de *Privacy Not Inclusive, a déclaré à Quartz dans une déclaration que les entreprises derrière les chatbots “devraient fournir des explications complètes si et comment ils utilisent le contenu des conversations des utilisateurs pour entraîner leurs modèles d’IA et permettre aux utilisateurs de contrôler leurs données. par exemple en le supprimant ou en refusant que leurs discussions soient utilisées pour former les robots.
« L’une des choses les plus effrayantes à propos des chatbots relationnels IA est le potentiel de manipulation de leurs utilisateurs », a déclaré Caltrider. de mauvais acteurs en créant des chatbots conçus pour apprendre à connaître leurs âmes sœurs et en utilisant cette relation pour manipuler ces personnes afin qu’elles fassent des choses terribles , adopter des idéologies effrayantes, ou se faire du mal ou faire du mal à autrui ? C’est pour quoi nous avons désespérément besoin de plus de transparence et de contrôle de l’utilisateur dans ces applications d’IA. »
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.