Un groupe soutenu par Google et Microsoft veut créer des « étiquettes nutritionnelles”pour le contenu d’IA

La Coalition pour la provenance et l’authenticité du contenu espère rendre les images étiquetées IA aussi courantes que HTTPS sur les URL.

Nous pouvons gagner une commission sur les liens sur cette page.
Image avec un encadré à droite montrant les modifications apportées par l’IA.
À quoi pourrait ressembler une image étiquetée par l’IA.
Image: Courtesy of Coalition for Content Provenance and Authenticity

Avec plus de 2 milliards d’électeurs attendu à se rendre aux urnes dans 50 pays cette année, le groupe industriel Coalition pour la provenance et l’authenticité du contenu (C2PA) veut être leader dans la lutte contre les deepfakes via l’utilisation de métadonnées et d’une technologie de provenance qui permet de suivre les origines d’une image.

Publicité

L’idée est que le contenu généré par l’IA devrait avoir une étiquette comme les étiquettes nutritionnelles pour les aliments, où il n’est pas interdit au consommateur d’acheter un produit. des céréales sucrées, mais peuvent entrer dans le magasin et savoir ce qu’il y a dedans et prendre leur propre décision, a déclaré Andy Parsons, co-fondateur du C2PA.

Google a annoncé jeudi 8 février qu’il rejoignait la coalition, ce qui, espère-t-il, signalera aux autres l’importance de l’étiquetage de l’IA. -créé du contenu. L’objectif du groupe, qui compte actuellement 100 membres et qui suscite « beaucoup d’intérêt, est d’amener tous les médias à informations d’identification du contenu.

Publicité

« Si vous êtes en mode de consommation d’actualités, vous devez vous attendre à ce que toutes vos images, photographies, paquets de texte, vidéo, etc. avoir des informations d’identification de contenu prouvant que quelque chose vient d’où il prétend être », a-t-il déclaré. « C’est comme ça que vous connaissez l’icône de verrouillage. vu avec HTTPS sur l’URL de votre navigateur a commencé. Au début, c’était l’exception. Et maintenant, c’est si courant et si attendu que vous n’avez plus d’icône de verrouillage. » Ce faisant, cela pourrait réduire le potentiel des mauvais acteurs.

Publicité

Comment les entreprises technologiques luttent contre les fausses images créées par de mauvais acteurs

Il n’existe pas qu’un seul moyen de lutter contre les deepfakes. Les entreprises technologiques ont été en avance sur les régulateurs lorsqu’il s’agit de trouver des solutions, que ce soit via des divulgations ou des filigranes. Cela a beaucoup de sens ; les élections étant si publiques, ils veulent s’assurer d’avoir une bonne image publique.

Publicité

En 2019, la coalition, co-créée par Adobe, est née de l’idée de créer un type de provenance de contenu robuste. qui relie les « ingrédients et la recette » au contenu. À cette époque, une vidéo montrant Nancy Pelosi marmonnant ses mots et semblant ivre. , ce qui était développé à l’aide d’algorithmes d’apprentissage automatique, tournait en ligne, ce qui les a incités à réfléchir à la possibilité de marquer quand quelque chose était généré ou non par l’IA. En 2021, Adobe, en collaboration avec des entreprises comme Microsoft et la BBC ont créé des implémentations open source visées à faire cela.

Alors, comment ça marche ? La norme C2PA est une preuve d’inviolabilité de source ouverte, il s’agit donc d’informations sur quel outil, comme l’IA. ou un appareil photo, créé quelque chose qui est effectivement attaché à une image. La technologie est également open source. Si les métadonnées étaient intentionnellement supprimé, il sera toujours clair dans l’historique et pourra être récupéré via le cloud. Sur le plan visuel, les consommateurs voient un symbole « CR » sur l’image sur lequel ils peuvent cliquer pour voir les « ingrédients ».

Publicité

Mais il n’existe pas de règle stricte obligeant les entreprises à adopter ces labels. En 2023, Adobe, qui a lancé le groupe, a déployé son modèle d’IA générative. Firefly, qui associe les identifiants de contenu de C2PA à toute génération d’image à partir de son outil d’IA génératif Adobe Firefly et certaines images pilotées par l’IA dans Photoshop. Microsoft, par la suite, a introduit l’utilisation des informations d’identification de contenu pour étiqueter toutes les images générées par l’IA créées via Bing Image Creator. OpenAI également cette semaine , juste images annoncées générés dans ChatGPT incluent des métadonnées à l’aide des spécifications C2PA.

Google n’a pas encore de politique sur la manière dont il adopte les étiquettes d’IA avec ses images. La société note également qu’il existe plusieurs des moyens de lutter contre les fausses images, y compris l’intégration de filigranes numériques dans les images et les fichiers audio générés par l’IA, les divulgations de publicités politiques et les étiquettes de contenu YouTube, exigeant des créateurs pour marquer quand les vidéos sont modifiées ou synthétiques.

Publicité

Quelle est la prochaine étape

C2PA affirme qu’il voit une adoption par des fabricants d’appareils photo comme Sony et Nikon, qui produisent des appareils photo qui proposer une technologie d’authentification. Parsons a déclaré qu’il aimerait voir les fabricants d’appareils mobiles rejoindre la coalition et commencer à produire des étiquettes d’IA dans le corps des téléphones, ce qui sont alors utilisables par les consommateurs.

Publicité

Étant donné que l’IA générative produit également différents modes de contenu tels que la vidéo, l’image et l’audio, la coalition examine également la recherche sur à quoi ressemble la création d’un label IA pour l’audio.

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité