OpenAI est sous contrôle dans l’Union européenne encore une fois, cette fois-ci Les hallucinations de ChatGPT sur les gens.
Un groupe à but non lucratif de défense des droits à la vie privée appelé noyb a déposé une plainte lundi auprès de l’autorité autrichienne de protection des données (DPA) contre la société d’intelligence artificielle concernant au nom d’un individu en raison de son incapacité à corriger les informations générées par ChatGPT sur les personnes.
Même si hallucinations, ou la tendance des grands modèles langagiers (LLM) comme ChatGPT à inventer des informations fausses ou absurdes sont courants, les plaintes de noyb se centrent sur le Règlement général sur la protection des données (RGPD) de l’UE. Le RGPD réglemente la comment les données personnelles des personnes dans le bloc est collecté et stocké.
Malgré les exigences du RGPD, « OpenAI admet ouvertement qu’il est incapable de corriger les informations incorrectes sur ChatGPT”, a déclaré noyb dans un déclaration , ajoutant que l’entreprise « ne peut pas non plus dire d’où proviennent les données ni quelles données ChatGPT stocke sur les personnes individuelles » et qu’elles sont « bien conscient de ce problème, mais ne semble pas s’en soucier.”
En vertu du RGPD, les individus dans l’UE ont le droit de faire rectifier les informations incorrectes les concernant, ce qui rend OpenAI non conforme au RGPD. règle en raison de son incapacité à corriger les données, a déclaré noyb dans sa plainte.
Bien que les hallucinations « puissent être tolérables » pour les devoirs à la maison, Noyb a déclaré qu’elles sont « inacceptables » lorsqu’il s’agit de générer des informations sur des personnes. dans le cas de Noyb contre OpenAI, il s’agit d’un individu public qui a interrogé ChatGPT à propos de son anniversaire, mais qui s’est vu « fournir à plusieurs reprises des informations incorrectes », selon non. OpenAI aurait alors « refusé sa demande de rectification ou d’effacement des données, arguant qu’il n’était pas possible de corriger les données ». , OpenAI aurait dit au plaignant qu’il pouvait filtrer ou bloquer les données sur certaines invites, comme le nom du plaignant.
Le groupe demande à la DPA d’enquêter sur la comment OpenAI traite les données, et comment l’entreprise garantit des données personnelles exactes dans la formation de ses LLM. noyb demande également à l’APD d’ordonner à OpenAI de se conformer à la demande du plaignant d’accéder aux données — un en vertu du RGPD, qui impose aux entreprises pour montrer aux individus quelles sont les données dont ils disposent sur eux et quelles sont les sources de ces données.
OpenAI n’a pas immédiatement répondu à une demande de commentaires.
“L’obligation de répondre aux demandes d’accès s’applique à toutes les entreprises”, a déclaré Maartje de Graaf, avocat en protection des données chez noyb, a déclaré dans un journal . déclaration. « Il est clairement possible de conserver des enregistrements des données de formation qui ont été utilisées au moins avoir une idée des sources d’information . Il semble qu’avec chaque « innovation », un autre groupe d’entreprises pense que ses produits ne doivent pas être conformes à la loi.”
Le non-respect des règles du RGPD peut conduire à des pénalités pouvant aller jusqu’à 20 millions d’euros ou 4% du chiffre d’affaires annuel mondial — quelle que valeur est la plus élevée — et des dommages encore plus si les individus choisissent de les rechercher. OpenAI est déjà fait face à des cas similaires de protection des données dans les États membres de l’UE Italie et Pologne.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.