Cette histoire fait partie de notre nouveau Directeur de l’Innovation Prévisions série avec Gizmodo, un rapport d’activité sur les avants lignes du futur.
Comme génératif IA Les technologies atteignent les mains du public, il devient de plus en plus difficile de différencier la vérité de la fabrication.
Deepfakes IA ont fait leur chemin dans la sphère publique alors qu’ils sont déployés par des pirates informatiques, des lycéens et même des politiciens. Des adolescents ont été arrêtés. pour avoir généré de faux nus profonds de leurs camarades de classe. Le gouvernement de Floride La campagne présidentielle aujourd’hui disparue de Ron DeSantis a publié des deepfakes de Donald Trump embrassant Anthony Faucion X, ancien directeur de l’Institut national des allergies et des maladies infectieuses, l’été dernier. Un groupe en ligne soutenu par la Chine, « Spamoflauge » diffusera des vidéos de présentateurs d’informations générés par l’IA rapportant de fausses nouvelles avant l’élection présidentielle de Taiwan. Pendant ce temps, un groupe de chercheurs de Microsoft pense que la Chine le fera. utilisera probablement l’IA pour s’immiscer dans l’élection présidentielle américaine.
Pour regagner la confiance du public dans une ère de réalités peu claires, une solution qui a été utilisée par de grandes entreprises telles que Méta et Google — ainsi que l’administration Biden — est un filigrane numérique. Ces filigranes intègrent du contenu en ligne avec un code invisible à l’œil humain mais peut être détecté par des algorithmes pour étiquetez-le comme original ou généré par l’IA. Alors que certains disent que l’approche est imparfaite ou que ça ne va pas assez loin pour lutter contre les deepfakes, c’est surement un début.
Eric Wengrowski est le co-fondateur et PDG de Steg.AI, une start-up de filigrane numérique qu’il a fondée en 2019 après avoir terminé son doctorat en informatique. technologie de vision et de filigrane. La société utilise des filigranes numériques et l’apprentissage en profondeur pour authentifier les médias numériques. Wengrowski s’est assis avec Quartz pour en parler. comment il a lancé StegAI et pourquoi il pense que le filigrane numérique est une technologie essentielle.
Quartz : StegAI a démarré avant que les grandes technologies ne commencent à développer de manière agressive des technologies d’IA. Qu’est-ce qui vous a motivé à faire décoller cette idée ?
Éric Wengrowski : Je faisais mon doctorat lorsque le travail original sur le « deepfake »a commencé à faire surgir dans le monde universitaire. Et c’est un travail vraiment cool et intéressant. Je veux dire, c’était une science incroyable, vous savez, une ingénierie incroyable. Et puis, évidemment, il y a eu une reconnaissance à l’époque que, d’accord, c’est quelque chose qui pourrait avoir des impacts sur l’éthique et la sécurité, et nous devrions commencer à y réfléchir. Steg est vraiment construit à partir de la base pour résoudre ces problèmes d’authenticité et de confiance dans les médias en utilisant une IA responsable. La mission a consisté à fournir une infrastructure pour savoir ce qui se passe. un contenu en ligne digne de confiance et authentique.
Nos clients sont des entreprises d’IA générative qui souhaitent identifier leur contenu comme deepfakes. Ils sont des photographes et des fabricants d’appareils photo qui souhaitent identifier leurs contenu organique. Ce sont également des entreprises et des gouvernements qui veulent pouvoir dire très fortement : ‘Hé, c’est le contenu officiel.’
Comment le secteur a-t-il évolué au fil du temps ?
Lorsque Steg a été fondée en 2019, chaque fois que nous disions aux investisseurs ou à qui que ce soit d’autre que nous sommes une société de filigrane, nous obtenions des regards arrogants du genre : « Oh, le filigrane, n’est-ce pas une chose qui s’est produite dans les années 90 ? Pourquoi fais-tu ça maintenant ? » Et depuis la prolifération des deepfakes et depuis que la Maison Blanche a pris une position ferme sur la nécessité d’introduire le filigrane en tant que moyen technologie stratégiquement importante pour lutter contre la désinformation et les deepfakes, les choses ont changé et de plus en plus d’entreprises de filigrane numérique sont apparues.
Pouvez-vous parler des dangers des deepfakes ?
L’authenticité des médias a toujours été parfois remise en question, surtout lorsqu’il y a une opportunité politique. Je pense que la différence est que, de retour le jour, pour créer quelque chose de synthétique et de convaincant, il fallait être vraiment habile à copier-coller littéralement. J’avais besoin des ressources d’un studio de production de films. Avec l’avènement d’outils comme Photoshop, la prolifération de la désinformation s’est accrue. Je veux dire, je souvenez-vous d’avoir regardé des photos de l’armée nord-coréenne qui avaient été photoshopées pour donner l’impression que leurs armées étaient plus grandes ou qu’un un certain leader était bien vivant.
Je pense que la différence ici est que le coût de création d’un contenu très réaliste mais potentiellement trompeur a été considérablement réduit grâce à l’IA de génération et les deepfakes, et le problème de la distribution de ce contenu a été suralimenté avec les médias sociaux. C’est donc vraiment un problème d’échelle.
Les deepfakes sont devenus si bons — et ils vont continuer à le devenir — que voir, ce n’est plus croire. Vous ne pouvez pas il suffit de regarder une photo ou une vidéo et de savoir de manière fiable si c’est réel ou non. Nous avons besoin d’un moyen de gérer ce problème. de confiance à grande échelle.
Pourquoi le filigrane est-il la réponse, selon vous ?
Vous avez donc besoin d’une solution [contre les deepfakes] qui fonctionne à grande échelle, et le filigrane avec des informations d’identification de contenu est cette solution qui fonctionne à grande échelle. Une image générée par l’IA avec un filigrane qui identifie [sa source] à l’aide un identifiant de contenu [dites si il est issu d’un algorithme et peut-être d’autres informations pertinentes sur qui l’a créé. Cela ajoute à la valeur de ce contenu ; vous savez que vous pouvez faire confiance à l’origine.
Steg a travaillé avec de très excellentes entreprises partenaires tout au cours de ce cours. Nous étions l’un des premiers membres de C2PA, qui est un standard ouvert [pour identifier à la fois le contenu original et généré par l’IA]. [Nous avons réalisé ] nous venions de proposer le meilleur au monde Le détecteur de faux faux n’est pas une vraie solution ici. Vous souhaitez fournir un identifiant de contenu qui va regarder cette photo et informer les gens en aval de quelle est l’origine.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.