Avec plus de 2 milliards d’électeurs attendu à se rendre aux urnes dans 50 pays cette année, le groupe industriel Coalition pour la provenance et l’authenticité du contenu (C2PA) veut être leader dans la lutte contre les deepfakes via l’utilisation de métadonnées et d’une technologie de provenance qui permet de suivre les origines d’une image.
L’idée est que le contenu généré par l’IA devrait avoir une étiquette comme les étiquettes nutritionnelles pour les aliments, où il n’est pas interdit au consommateur d’acheter un produit. des céréales sucrées, mais peuvent entrer dans le magasin et savoir ce qu’il y a dedans et prendre leur propre décision, a déclaré Andy Parsons, co-fondateur du C2PA.
Google a annoncé jeudi 8 février qu’il rejoignait la coalition, ce qui, espère-t-il, signalera aux autres l’importance de l’étiquetage de l’IA. -créé du contenu. L’objectif du groupe, qui compte actuellement 100 membres et qui suscite « beaucoup d’intérêt, est d’amener tous les médias à informations d’identification du contenu.
« Si vous êtes en mode de consommation d’actualités, vous devez vous attendre à ce que toutes vos images, photographies, paquets de texte, vidéo, etc. avoir des informations d’identification de contenu prouvant que quelque chose vient d’où il prétend être », a-t-il déclaré. « C’est comme ça que vous connaissez l’icône de verrouillage. vu avec HTTPS sur l’URL de votre navigateur a commencé. Au début, c’était l’exception. Et maintenant, c’est si courant et si attendu que vous n’avez plus d’icône de verrouillage. » Ce faisant, cela pourrait réduire le potentiel des mauvais acteurs.
Comment les entreprises technologiques luttent contre les fausses images créées par de mauvais acteurs
Il n’existe pas qu’un seul moyen de lutter contre les deepfakes. Les entreprises technologiques ont été en avance sur les régulateurs lorsqu’il s’agit de trouver des solutions, que ce soit via des divulgations ou des filigranes. Cela a beaucoup de sens ; les élections étant si publiques, ils veulent s’assurer d’avoir une bonne image publique.
En 2019, la coalition, co-créée par Adobe, est née de l’idée de créer un type de provenance de contenu robuste. qui relie les « ingrédients et la recette » au contenu. À cette époque, une vidéo montrant Nancy Pelosi marmonnant ses mots et semblant ivre. , ce qui était développé à l’aide d’algorithmes d’apprentissage automatique, tournait en ligne, ce qui les a incités à réfléchir à la possibilité de marquer quand quelque chose était généré ou non par l’IA. En 2021, Adobe, en collaboration avec des entreprises comme Microsoft et la BBC ont créé des implémentations open source visées à faire cela.
Alors, comment ça marche ? La norme C2PA est une preuve d’inviolabilité de source ouverte, il s’agit donc d’informations sur quel outil, comme l’IA. ou un appareil photo, créé quelque chose qui est effectivement attaché à une image. La technologie est également open source. Si les métadonnées étaient intentionnellement supprimé, il sera toujours clair dans l’historique et pourra être récupéré via le cloud. Sur le plan visuel, les consommateurs voient un symbole « CR » sur l’image sur lequel ils peuvent cliquer pour voir les « ingrédients ».
Mais il n’existe pas de règle stricte obligeant les entreprises à adopter ces labels. En 2023, Adobe, qui a lancé le groupe, a déployé son modèle d’IA générative. Firefly, qui associe les identifiants de contenu de C2PA à toute génération d’image à partir de son outil d’IA génératif Adobe Firefly et certaines images pilotées par l’IA dans Photoshop. Microsoft, par la suite, a introduit l’utilisation des informations d’identification de contenu pour étiqueter toutes les images générées par l’IA créées via Bing Image Creator. OpenAI également cette semaine , juste images annoncées générés dans ChatGPT incluent des métadonnées à l’aide des spécifications C2PA.
Google n’a pas encore de politique sur la manière dont il adopte les étiquettes d’IA avec ses images. La société note également qu’il existe plusieurs des moyens de lutter contre les fausses images, y compris l’intégration de filigranes numériques dans les images et les fichiers audio générés par l’IA, les divulgations de publicités politiques et les étiquettes de contenu YouTube, exigeant des créateurs pour marquer quand les vidéos sont modifiées ou synthétiques.
Quelle est la prochaine étape
C2PA affirme qu’il voit une adoption par des fabricants d’appareils photo comme Sony et Nikon, qui produisent des appareils photo qui proposer une technologie d’authentification. Parsons a déclaré qu’il aimerait voir les fabricants d’appareils mobiles rejoindre la coalition et commencer à produire des étiquettes d’IA dans le corps des téléphones, ce qui sont alors utilisables par les consommateurs.
Étant donné que l’IA générative produit également différents modes de contenu tels que la vidéo, l’image et l’audio, la coalition examine également la recherche sur à quoi ressemble la création d’un label IA pour l’audio.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.