Les législateurs et les défenseurs des droits font pression pour qu’une législation fédérale criminalise la pornographie générée par l’IA. Ils affirment que la soi-disant pornographie deepfake ruine la vie des victimes, qui sont le plus souvent des femmes et des filles.
« En l’absence de législation claire au niveau fédéral et au niveau des États, lorsqu’une victime s’adresse aux forces de l’ordre, on lui dit souvent qu’il n’y a rien à faire », a déclaré Andrea Powell, directrice d’un groupe de défense des droits appelé Image-Based Sexual Violence Initiative, lors d’une récente table ronde sur le sujet. Le forum en ligne était organisé par l’organisation à but non lucratif National Organization for Women (NOW).
« Ces personnes ont ensuite reçu des menaces hors ligne de violence sexuelle, de harcèlement, et nous avons également constaté, malheureusement, que certaines [victimes] ne survivent pas », a ajouté Powell. Elle qualifie les applications de deepfake nude basées sur l’IA d’« arme virtuelle » pour les hommes et les garçons.
Le terme «faux profonds« était inventé fin 2017 par un utilisateur de Reddit qui a utilisé la technologie open source de changement de visages de Google pour créer des vidéos pornographiques. Le contenu sexuellement explicite généré par l’IA s’est propagé comme une tombée de forêt depuis que ChatGPT a introduit l’intelligence artificielle générative dans le grand public. Les entreprises technologiques se sont empressées de créer de meilleurs outils de photo et vidéo d’IA, et certaines personnes utilisent ces outils à des fins préjudiciables. Selon Powell, 9 000 sites web répertoriés sur la recherche Google affichent des abus explicites deepfake. Et entre 2022 et 2023, Les faux contenus sexuels en ligne ont augmenté de plus de 400 %.« Nous en arrivons au point où nous voyons des filles de 11 et 12 ans qui ont peur d’être en ligne », a-t-elle déclaré.Les réglementations sur les deepfakes varient selon les États. Jusqu’à présent,
10 États ont des lois
dans les livres, et six de ces États imposent des sanctions pénales. D’autres projets de loi sur les deepfakes sont en attente en Floride, en Virginie, en Californie, et en Ohio. Et à San Francisco cette semaine a déposé une action en justice révolutionnaire contre 16 sites Web de deepfake porn. Mais les défenseurs de cette cause affirment que le manque de cohérence entre les lois des États crée des problèmes et que les réglementations fédérales sont largement en retard. Ils affirment également que les plateformes, et pas seulement les individus, devraient être tenues responsables des deepfakes non consensuels.Certains décideurs politiques fédéraux y travaillent. Le représentant Joe Morelle (NY) a présenté en 2023 le
Loi visant à empêcher les deepfakes d’images intimes
, qui criminaliserait la diffusion non consensuelle de deepfakes. Peu de temps après que les nus faux de Taylor Swift aient pris d’assaut sur Internet, les législateurs ont introduit Loi DEFIANCE, ce qui renforcerait le droit des victimes à engager une action civile. Et un projet de loi bipartisan appelé la loi sur la protection de la vie privée intime tiendrait les entreprises technologiques responsables lorsqu’elles ne s’attaqueraient pas aux fausses photos nues sur leurs plateformes.En attendant, les victimes et les défenseurs prennent les choses en main. Breeze Liu travaillait comme investisseur en capital-risque lorsqu’elle est devenue la cible d’un harcèlement sexuel de type deepfake en 2020. Elle a créé une application appelée Alecto AI qui aide les gens à suivre et à supprimer les contenus deepfake en ligne qui utilisent leur image.Se souvenant de sa propre expérience en tant que victime d’abus de type deepfake, Liu a déclaré lors de la réunion en ligne des défenseurs : « J’avais l’impression que j’aurais probablement mieux fait d’être morte, car c’était tout simplement horrible.
« Nous souffrons depuis assez longtemps d’abus d’images en ligne », a-t-elle ajouté. « J’ai créé cette entreprise avec l’espoir que nous tous et nos générations futures prendrions un jour pour acquis que personne n’aurait jamais à mourir de ce qui s’est passé, de la violence qui s’est produite en ligne. »
En plus d’Alecto AI, Liu plaide également en faveur de changements de politique fédérale qui criminaliseraient la pornographie deepfake non consensuelle par IA, comme le projet de loi de Morelle de 2023. Cependant, la loi sur la prévention des deepfakes d’images intimes n’a pas progressé depuis son introduction l’année dernière.
Notamment, certaines entreprises technologiques ont déjà pris des mesures pour résoudre ce problème.
Le 31 juillet, Google a mis à jour ses politiques
pour atténuer le contenu deepfake non consensuel. D’autres subissent des pressions. Le Conseil de surveillance de Meta fin juillet a déclaré que l’entreprise doit faire davantage pour lutter contre le contenu explicite généré par l’IA sur sa plateforme. META-0.63% Oversight Board in late July said the company must do more to address explicit AI-generated content on its platform.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.