Les Américains s’inquiètent de la façon dont Deepfakes IA pourrait déclencher une traînée de désinformation avant l’élection présidentielle américaine cet automne – et certains réduisent même leur utilisation des médias sociaux en raison de cette préoccupation.
Plusieurs études ont montré que la majorité des Américains ne sont pas à l’aise quant à la façon dont l’intelligence artificielle générative peut être utilisée pour diffuser de la désinformation, et un certain nombre d’entre eux ont confirmé que beaucoup (sinon la plupart) Les résidents américains sont particulièrement inquiet de la désinformation créée par l’IA en ce qui concerne l’élection présidentielle de 2024. Par exemple, une enquête Axios a découvert que 53 % des Américains pensent que la désinformation diffusée par l’IA aura un impact sur le candidat qui gagnera.
Adobe a ajouté à cette pile de recherches en commandant une enquête volontaire auprès de plus de 2 000 résidents américains âgés de 18 ans et plus et en découvrant Un nombre encore plus alarmant d’Américains s’inquiètent de l’influence des deepfakes sur les résultats des élections : 80 %. L’étude partagée avec Quartz a également révélé que 40 % des personnes interrogées ont réduit ou arrêté leur utilisation d’une plateforme de médias sociaux spécifique en raison de la quantité de désinformation qu’elle contenait.
Leurs inquiétudes sont bien fondées : le contenu généré par l’IA est déjà utilisé par les politiciens et les pirates informatiques. Le gouvernement de Floride. La campagne présidentielle aujourd’hui disparue de Ron DeSantis a publié des deepfakes de Donald Trump en embrassant Anthony Faucion X, l’ancien directeur de l’Institut national des allergies et des maladies infectieuses, l’été dernier. fête de Le Premier ministre polonais, Donald Tusk, a publié une vidéo partiellement générée par l’IA de son adversaire lors d’une campagne électorale. Pendant ce temps, un groupe en ligne soutenu par la Chine, « Spamoflauge », a diffusé des vidéos de présentateurs d’informations générés par l’IA faisant état de faux nouvelles avant l’élection présidentielle à Taiwan. Et un groupe de chercheurs de Microsoft a déclaré que la Chine utilisera probablement l’IA pour s’immiscer dans les États-Unis élection présidentielle.
« Chez Adobe, nous constatons le potentiel de transformation de l’IA générative pour stimuler la créativité et la productivité. Cependant, à l’ère des deepfakes, l’intelligence artificielle La désinformation pose un risque important pour l’intégrité des élections », a déclaré Andy Parsons, directeur principal d’Adobe de l’Initiative sur l’authenticité du contenu. L’équipe estime qu’il y aura un certain impact de l’IA dans cette élection. Ce ne sera pas la fin de la civilisation et de la démocratie, mais avec le temps, sans des coches appropriées, la situation va empirer.
« Une fois trompé par un deepfake, vous ne pourrez peut-être plus croire ce que vous voyez en ligne. Et quand les gens commencent à douter de tout, quand ils On ne peut pas distinguer la fiction des faits, la démocratie elle-même est menacée », a-t-il déclaré.
Réponse d’Adobe : identifiants de contenu
Adobe a dirigé des initiatives du industrie pour lutte contre la désinformation générée par l’IA au ces dernières années.
Adobe a lancé l’initiative Content Authenticity (CAI) en partenariat avec le New York Times et Twitter en 2019. Le CAI a développé un code open source appelé Content Credentials qui les entreprises peuvent s’intégrer gratuitement à leurs produits. La technologie attache des métadonnées au contenu numérique et est conçue pour être interopérable entre les systèmes. Le résultat final est que les photos et les vidéos ont une icône sur laquelle les utilisateurs peuvent cliquer pour voir que le contenu a été créé, dans quelle mesure il a été modifié et si l’IA a été utilisée ; cette icône accompagne ensuite l’image ou la vidéo lorsqu’elle est exportée depuis Adobe Premiere, par exemple, et publiée sur des plateformes comme YouTube ou Instagram.
« La mission du CAI est restée inébranlable et constante, et c’est de donner des informations aux consommateurs, aux vérificateurs de faits, [et] aux créatifs les capacité de savoir ce qu’ils font », a déclaré Parsons.
Adobe ne gagne pas d’argent grâce à sa participation au CAI ou au projet collaboratif du groupe, le Coalition pour la provenance et l’authenticité du contenu (C2PA), qu’elle a lancé avec de grands acteurs tels que Microsoft, Arm et Intel en 2021 pour créer une norme de certification de contenu numérique. Meta a annoncé en février qu’il utiliserait les informations d’identification de contenu, et ce même mois. Google a rejoint le C2PA pour aider à développer ces mêmes normes en collaboration avec Adobe et ses maintenant 2 500 partenaires. Microsoft et Adobe ont également travaillé sur un contenu Outil d’accréditation pour les campagnes politiques avant les prochaines élections.
«Cette petite épinglette CR [Content Credentials], que nous imaginons pouvoir être aussi reconnaissable dans les prochaines années que le symbole du droit d’auteur, l’indique non pas que le [contenu numérique] soit bon, vrai ou faux, mais qu’il y ait plus d’informations [sur l’origine du contenu], qui C’est pourquoi nous aimons cette métaphore de l’étiquette nutritionnelle. Vous savez, vous pouvez entrer dans un supermarché et personne ne vous empêchera d’acheter. des aliments malsains, mais vous avez le droit fondamental de savoir ce qu’ils contiennent.
Parsons a déclaré qu’Adobe avait lancé tout cet effort lorsqu’un présentateur lors de sa conférence annuelle à Las Vegas en 2016 avait montré à quel point cela serait facile. être de créer un faux son profond de la voix de Jordan Peele.
Parsons a déclaré que les efforts d’Adobe pour créer davantage de normes autour du contenu généré par l’IA profitent à leurs clients Creative Cloud, qui souhaitent de tels outils. Il a également déclaré que les informations d’identification de contenu sont plus solides que les filigranes numériques, un morceau de code qui identifie le contenu créé par l’IA et a été présenté comme une solution potentielle aux deepfakes.
« Il est assez facile d’entraîner une IA à vaincre les filigranes. Nous soutenons donc l’idée des filigranes, mais nous pensons que la combinaison d’un Un filigrane et un identifiant de contenu constituent ensemble une contre-mesure beaucoup plus puissante », a-t-il déclaré.
Néanmoins, Parsons reconnaît qu’il faudra faire davantage pour prévenir la désinformation et la désinformation liées à l’IA. Il a déclaré que l’adoption généralisée d’un système numérique des normes de certification de contenu telles que des informations d’identification de contenu et une formation en éducation aux médias sont nécessaires.
« Aucune de ces contre-mesures n’est une solution miracle. Il faudra que le gouvernement, la société civile, les entreprises technologiques et une variété d’approches technologiques pour vraiment lutter contre la désinformation », a-t-il déclaré.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.