OpenAI affirme qu’il peut désormais identifier les images générées par OpenAI, principalement

L’entreprise a déclaré que son nouvel outil identifiait correctement 98 % des images générées par DALL-E 3.

Nous pouvons gagner une commission sur les liens sur cette page.
Sam Altman s’exprimant sur scène avec un carré noir et rouge dans le coin supérieur droit de la toile de fond derrière lui
Sam Altman, PDG d’OpenAI, lors de l’OpenAI DevDay le 6 novembre 2023 à San Francisco, en Californie.
Photo: Justin Sullivan (Getty Images)

OpenAI s’attaque à un problème de plus en plus urgent : les fausses images générées par sa propre technologie.

Publicité

La société d’IA a annoncé mardi son lancement un outil pour détecter les contenus créés par son DALL-E 3 générateur de texte en image. La société a également déclaré qu’elle ouvrait des candidatures pour un premier lot de testeurs pour son classificateur de détection d’images, qui prédit la probabilité qu’une image soit générée”par son DALL-E 3.

« Notre objectif est de permettre une recherche indépendante qui évalue l’efficacité du classificateur, analyse son application dans le monde réel, fait ressortir les considérations pertinentes pour une telle utilisation , et explore les caractéristiques du contenu généré par l’IA », a déclaré OpenAI dans une déclaration.

Publicité

OpenAI a déclaré que les tests internes d’une première version de son classificateur ont montré une grande précision dans la détection des différences entre les images non générées par l’IA et le contenu créé par DALL-E 3. L’outil a correctement détecté 98 % des images générées par DALL-E 3, alors que moins de 0,5 % des images générées non-IA les images ont été identifiées à tort comme générées par l’IA.

Publicité

Les modifications apportées aux images, telles que la compression, le recadrage et la saturation, ont un « impact minime » sur les performances de l’outil, selon OpenAI. L’entreprise a déclaré que d’autres types de modifications « peuvent réduire les performances ». L’entreprise a également constaté que son outil ne fonctionne pas aussi bien lorsqu’il s’agit de distinguer entre les images générées par DALL-E 3 et le contenu généré par d’autres modèles d’IA.

Publicité

« Les préoccupations électorales sont absolument à l’origine d’une grande partie de ce travail », David Robinson, responsable de la planification politique chez OpenAI. dit au Journal de Wall Street. «C’est le contexte de préoccupation numéro dont nous entendons parler par les décideurs politiques.”

Un sondage réalisé auprès des électeurs américains par l’AI Policy Institute en février a révélé que 77 % des personnes interrogées ont déclaré que lorsqu’il s’agissait de générateurs vidéo IA. — comme Sora d’OpenAI, qui n’est pas encore disponible au public —il est plus important de mettre en place des garde-corps et des mesures de protection pour éviter toute utilisation abusive. que de rendre les modèles plus largement disponibles. Plus des deux tiers des personnes interrogées ont déclaré que les développeurs de modèles d’IA devraient être tenus légalement responsables de tout activité illégale.

Publicité

«Cela montre vraiment à quel point le public prend cette technologie au sérieux», a déclaré Daniel Colson, fondateur et directeur exécutif de l’AIPI. «Ils pensent que c’est puissant. Ils ont vu la manière dont les entreprises technologiques déploient ces modèles, ces algorithmes et ces technologies, et cela conduit à complètement des résultats qui transforment la société.

En plus du lancement de son outil de détection, OpenAI a annoncé mardi qu’il rejoignait le comité directeur du C2PA, ou la Coalition pour la provenance du contenu. et l’authenticité, qui est un norme largement utilisée pour certifier le contenu numérique. La société a déclaré qu’elle a commencé à ajouter des métadonnées C2PA aux images générées et éditées par DALL-E 3 dans ChatGPT et son API plus tôt cette année, et intégrera les métadonnées C2PA pour Sora lorsqu’il sera largement diffusé.

Publicité

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité