Les preuves vidéo « améliorées par l’IA » ont été rejetées dans une affaire de meurtre parce que ce n’est pas vraiment une chose

Le cycle de battage médiatique de l’IA a considérablement déformé les visions de ce qui est possible avec les upscalers d’images.

Nous pouvons gagner une commission sur les liens sur cette page.
Images de caméras de sécurité de l’extérieur du bar de la région de Seattle en 2021, où trois personnes ont été tuées.
Images de caméras de sécurité de l’extérieur du bar de la région de Seattle en 2021, où trois personnes ont été tuées.
Capture d'écran: KOMO News (Utilisation équitable)

Un juge de l’État de Washington a empêché que des preuves vidéo qui ont été « améliorées par l’IA » soient soumises dans le cadre d’un procès pour triple meurtre. bonne chose, étant donné que trop de gens semblent penser à appliquer un Filtre IA peut leur donner accès à des données visuelles secrètes.

Publicité

Le juge Leroy McCullough dans le comté de King , Washington a écrit dans une nouvelle décision que la technologie de l’IA utilisait « des méthodes opaques pour représenter ce que le modèle de l’IA « pense » devrait être montré », selon un nouveau rapport de Actualités NBC Mardi. Et c’est un peu de clarté rafraîchissante sur ce qui se passe avec ces outils d’IA dans un monde de battage médiatique sur l’IA.

« Cette Cour estime que l’admission de ces preuves renforcées par Al conduirait à une confusion des questions et à une confusion des témoignages oculaires, “et pourrait conduire à un essai long au sein d’un essai sur le processus non évaluable par les pairs utilisé par le modèle d’IA”, McCullough a écrit.

Publicité

L’affaire concerne Joshua Puloka, un homme de 46 ans accusé d’avoir tué trois personnes et d’en avoir blessé deux autres dans un bar juste à l’extérieur de Seattle. en 2021. Les avocats de Puloka voulaient présenter une vidéo de téléphone portable capturée par un spectateur et a été améliorée par l’IA, bien que on ne sommes pas clair ce qu’ils croient pourraient être tirés des images modifiées.

Publicité

Les avocats de Puloka auraient fait appel à un « expert » en production vidéo créative qui n’avait jamais travaillé sur une affaire pénale auparavant pour « améliorer » la vidéo. L’outil d’IA que cet expert anonyme a utilisé a été développé par une société basée au Texas. Laboratoires de Topaze, qui est accessible à toute personne disposant d’une connexion Internet.

Publicité

L’introduction d’outils d’imagerie basés sur l’IA ces dernières années a conduit à des malentendus généralisés sur ce qui est possible avec cette technologie. De nombreuses personnes pensent que faire passer une photo ou une vidéo via des upscalers IA peut vous donner une meilleure idée des informations visuelles qui sont déjà là. Mais en réalité , le logiciel d’IA ne fournit pas une image plus claire des informations présentes dans l’image. Le logiciel est simplement ajouter des informations qui n’existaient pas en premier lieu.

Par exemple, il y avait une théorie du complot largement répandue selon laquelle Chris Rock portait une sorte de masque facial lorsqu’il a été giflé par Will Smith. aux Oscars en 2022. La théorie a commencé parce que les gens ont commencé à exécuter des captures d’écran des upscalers d’images, croyant qu’ils pourraient obtenir un meilleur aperçu que se passait-il.

Publicité

Mais ce n’est pas ce qui se produit lorsque vous exécutez des images grâce à l’amélioration de l’IA. Le programme informatique ajoute simplement plus d’informations dans le but de rendre l’image est plus nette, ce qui peut souvent déformer ce qui est réellement là. À l’aide du curseur ci-dessous, vous pouvez voir l’image pixellisée qui est devenue virale. avant que les gens ne commencent à l’alimenter via des programmes d’IA et à « découvrir » des choses qui n’étaient tout simplement pas là dans l’émission originale.

The original pixelated image of Chris Rock before it was artificially “upscaled” to “8K” (left) and the image of Chris Rock “upscaled” with AI on the iPhone app Remini. (right)

Screenshot: Gizmodo
Publicité

D’innombrables photos et vidéos haute résolution de l’incident montrent de manière concluante que Rock n’avait pas de tampon sur le visage. empêcher les gens de croire qu’ils pourraient voir quelque chose de caché à la vue de tous en « agrandissant » l’image à « 8K ».

L’essor des produits étiquetés IA a créé beaucoup de confusion parmi la personne moyenne quant à ce que ces outils peuvent réellement accomplir. des modèles de langage comme ChatGPT ont convaincu des personnes par ailleurs intelligentes que ces chatbots sont capables de raisonnements complexes alors que ce n’est tout simplement pas ce qui se passe sous le capot. Les LLM sont essentiellement, il s’agit simplement de prédire le prochain mot qu’il devrait cracher pour ressembler à un humain plausible. Mais parce qu’ils font un assez bon travail de ressemblant à des humains, de nombreux utilisateurs pensent qu’ils font quelque chose de plus sophistiqué qu’un tour de magie.

Publicité

Et cela semble être la réalité avec laquelle nous allons vivre aussi longtemps que des milliards de dollars sont investis dans les entreprises d’IA.Beaucoup de gens qui devraient mieux savoir croient que quelque chose de profond se passe derrière le rideau et sont prompts à blâmer les « préjugés » et les garde-fous. être trop strict. Mais quand vous creusez un peu plus profondément, vous découvrez ces ce qu’on appelle des hallucinations ne sont pas une force mystérieuse exercée par des personnes trop éveillées, ou quoi que ce soit. Ils sont simplement un produit de cette technologie d’IA, non étant très bon dans son travail.

Heureusement, un juge de Washington a reconnu que cette technologie n’est pas capable de fournir une meilleure image. Même si nous ne doutons pas qu’il existe de nombreux juges aux États-Unis ont adhéré au battage médiatique de l’IA et ne comprennent pas les implications. Ce n’est qu’une question de temps avant que nous ayons une vidéo améliorée par l’IA utilisée au tribunal qui ne montre rien d’autre que des informations visuelles ajoutées bien après coup.

Publicité

Une version de cet article paru à l’origine sur Gizmodo.

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité