Les deepfakes de l’IA vont s’aggraver

Les deepfakes brouillent les lignes de la réalité plus que jamais, et ils vont probablement s’aggraver cette année.

Nous pouvons gagner une commission sur les liens sur cette page.
Image de l'article intitulé Les deepfakes de l’IA vont s’aggraver
Photo: Kitreel (Shutterstock)

Le monde est en train d’être déchiré par des deepfakes générés par l’IAet les dernières tentatives stupides pour les arrêter ne font rien. Les régulateurs fédéraux appels automatisés deepfakes interdits Jeudi dernier, comme ceux-là se faisant passer pour le président Joe Biden lors des élections primaires du New Hampshire. Pendant ce temps, OpenAI et Google ont publié des filigranes la semaine dernière pour étiqueter les images comme générées par l’IA. Cependant, ces mesures n’ont pas les dents nécessaires pour arrêter les deepfakes de l’IA.

Publicité

«Ils sont là pour rester», a déclaré Vijay Balasubramaniyan, PDG de Pindrop, qui a identifié ElevenLabs comme le service utilisé pour créer le faux Biden. robocall. « Les technologies de détection des deepfakes doivent être adoptées à la source, au point de transmission et à la destination. cela se produira à tous les niveaux.

Les efforts de prévention contre les deepfakes ne sont que superficiels

La Commission fédérale des communications (FCC) interdisant les faux appels automatisés est un pas dans la bonne direction, selon Balasubramaniyan, mais il y a des éclaircissements minimes sur comment cela va être appliqué. Actuellement, nous sommes détecter les deepfakes une fois que les dégâts sont causés, et punir rarement les mauvais acteurs responsables. C’est beaucoup trop lent, et ce ne réellement ne résout pas le problème .

Publicité

OpenAI a introduit des filigranes sur les images de Dall-E la semaine dernière, à la fois visuellement et intégrés dans les métadonnées d’une photo. Cependant, l’entreprise a simultanément a reconnu que cela peut être facilement évité en prenant une capture d’écran. Cela ressemblait moins à une solution qu’à une réponse de l’entreprise : “Eh bien, au moins, nous avons essayé !”

Pendant ce temps, des deepfakes du patron d’un employé de la finance à Hong Kong l’a trompé sur 25 millions de dollars. C’était un cas choquant qui a montré à quel point la technologie de deepfake brouille les lignes de réalité.

Publicité

Le problème des deepfakes ne fera que s’aggraver 

Ces solutions ne sont tout simplement pas suffisantes. Le problème est que la technologie de détection des deepfakes est nouvelle, et elle ne s’implique pas aussi rapidement que la technologie générative IA. Des plateformes comme Meta, X et même votre compagnie de téléphone doivent adopter la détection des deepfakes. Ces entreprises font la une des journaux sur toutes leurs de nouvelles fonctionnalités d’IA, mais qu’en est-il de leurs fonctionnalités de détection d’IA ?

Publicité

Si vous regardez une vidéo deepfake sur Facebook, ils devraient recevoir un avertissement à ce sujet. Si vous recevez un appel téléphonique deepfake, votre fournisseur de services devrait disposer d’un logiciel pour le détecter. Ces entreprises ne peuvent pas simplement lever les mains en l’air, mais elles le sont certainement. essayer de le faire.

La technologie de détection des deepfakes doit également s’améliorer et devenir beaucoup plus répandue. Actuellement, la détection des deepfakes n’est pas précise à 100 % pour quoi que ce soit. , selon le PDG de Copyleaks, Alon Yamin. Son entreprise dispose de l’un des meilleurs outils pour détecter le texte généré par l’IA, mais pour détecter le discours de l’IA. et la vidéo constitue un autre défi. La détection des deepfakes est à la traîne de l’IA générative et doit s’accélérer rapidement.

Publicité

Les deepfakes sont vraiment la nouvelle désinformation, mais c’est beaucoup plus convainquant. Il y a un espoir que la technologie et les régulateurs rattrapent pour résoudre ce problème, mais les experts Je suis d’accord que les deepfakes ne feront qu’empirer avant de s’améliorer.

Cet article a été initialement publié sur Gizmodo.

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité