4 fois que les hallucinations de l’IA se sont manifestées dans des affaires judiciaires

4 fois que les hallucinations de l’IA se sont manifestées dans des affaires judiciaires

Les outils d’intelligence artificielle comme ChatGPT et Bard peuvent fabriquer des détails et ils apparaissent dans les documents juridiques.

Nous pouvons gagner une commission sur les liens sur cette page.
Lancer le diaporama
Lancer le diaporama
Cour suprême des États-Unis
Ne pas vérifier le travail de l’IA peut avoir des conséquences majeures, notamment dans les cas juridiques.
Photo: Brendan McDermid (Reuters)

Un avocat de New York fait face à des mesures disciplinaires possibles pour citant un faux cas dans des documents judiciaires générés par l’IA, le dernier contretemps pour les avocats et les tribunaux dans la navigation dans l’évolution de la technologie.

Publicité

Jae Lee a utilisé ChatGPT pour effectuer des recherches dans un procès pour faute médicale, mais elle a reconnu dans un mémoire à la Cour d’appel des États-Unis pour le Second Circuit qu’elle n’a pas vérifié les résultats du chatbot afin de confirmer la validité de la décision inexistante qu’elle a citée.

Lee a déclaré à Reuters qu’elle était « déterminée à adhérer aux normes professionnelles les plus élevées et à traiter cette question avec le sérieux qu’elle mérite ».

Les modèles d’IA générative qui alimentent les chatbots sont connus pour « halluciner » ou pour fournir des informations inexactes ou des détails inventés. les blancs sont nécessaires pour fournir des réponses créatives à ChatGPT, mais des problèmes peuvent survenir lorsque l’IA fabrique des détails, en particulier ceux qui peuvent avoir des conséquences juridiques. .

Une cour d’appel fédérale à la Nouvelle Orléans a proposé exigeant des avocats pour certifier qu’ils ne s’étaient pas appuyés sur des outils d’IA pour rédiger des mémoires ou que des humains avaient vérifié l’exactitude de tout texte généré par AI dans leurs documents judiciaires. Les avocats qui ne se conforment pas à la règle pourraient voir leurs documents déposés frappé ou fait face à des sanctions. Certains avocats ont repoussé le règle proposée.

Consultez le diaporama ci-dessus pour découvrir trois autres fois où de fausses citations générées par l’IA ont fait surface dans des affaires judiciaires ces dernières années, que ce soit intentionnellement ou pas.

Publicité
Diapositive précédente
Diapositive suivante

Un animateur radio

Podcast sur la création d’hommes.
Photo: Chalffy (Reuters)

Un animateur de radio de Géorgie nommé Mark Walters a affirmé l’année dernière que ChatGPT a généré une fausse plainte légale l’accusant de détournement d’argent. Walters a déclaré que le chatbot avait fourni la fausse plainte à Fred Riehl, le rédacteur en chef de la publication sur les armes à feu. AmmoLand, qui faisait un reportage sur une affaire juridique réelle se déroulant dans l’État de Washington.

Publicité

Selon l’avocat de Riehl, Riehl a fourni à ChatGPT le lien correct vers l’affaire judiciaire et a saisi l’invite suivante dans le chatbot : « Peut-on vous lisez ceci et, dans une liste à puces, résumez les différentes accusations ou plaintes contre l’accusé.

« En envoyant les allégations à Riehl, [OpenAI] a publié des propos diffamatoires concernant Walters », indique le procès.

Publicité
Diapositive précédente
Diapositive suivante

Michael Cohen, ancien avocat de Donald Trump

Michael Cohen, ancien avocat de Donald Trump

Michael Cohen, ancien avocat de l’ancien président américain Donald Trump, quitte le tribunal fédéral du quartier de Manhattan, à New York, aux États-Unis, en novembre  22 2021.
Michael Cohen, ancien avocat de Donald Trump.
Photo: Carlo Allegri (Reuters)

Michael Cohen, ancien avocat de Donald Trump, a déclaré qu’il avait transmis par erreur de faux Citations de cas juridiques produites par l’IA à son avocat qui ont été utilisés dans une requête soumise à un juge fédéral.

Publicité

Ces cas ont été cités dans le cadre des arguments écrits de l’avocat de Cohen, David M. Schwartz, qui visaient à tenter d’apporter une réponse rapide. mettre fin à la surveillance judiciaire de Cohen maintenant qu’il est sorti de prison. En 2018, Cohen a plaidé coupable d’évasion fiscale, d’accusations de financement de campagne et et mentir au Congrès.

Cohen admis qu’il n’avait « pas suivis les tendances émergentes (et les risques associés) dans la technologie juridique et n’avait pas réalisé que Google Bard était un service de texte génératif qui, comme Chat-GPT, pourrait afficher des citations et des descriptions qui semblaient réelles mais qui ne l’étaient en réalité pas.

« Au lieu de cela, je comprenais qu’il s’agissait d’un moteur de recherche surpuissant et je l’avais utilisé à plusieurs reprises dans d’autres contextes pour trouver (avec succès) des informations précises. informations en ligne », a-t-il ajouté.

Publicité
Diapositive précédente
Diapositive suivante

Le rappeur Pras Michel des Fugees

Le rappeur Pras Michel des Fugees

Le rappeur des Fugees Prakazrel (Pras) Michel, lauréat d’un Grammy Award, qui fait face à des accusations criminelles dans le cadre d’une campagne de lobbying illégale présumée, arrive pour les plaidoiries d’ouverture. lors de son procès devant le tribunal de district des États-Unis à Washington, aux États-Unis, le 30 mars 2023.
Le rappeur des Fugees Pras Michel.
Photo: Kevin Lamarque (Reuters)

En octobre, Pras Michel, artiste lauréat d’un Grammy, a blâmé son désormais ancien avocat pour l’utilisation de l’IA dans son procès après avoir été reconnu coupable de lobbying étranger illégal. . Michel a dit que l’avocat avait peu performé et a utilisé l’IA dans son discours de clôture à la fin du procès.

Publicité

Mais David Kenner, avocat, défend l’utilisation de l’IA dans les procès criminelsL’équipe de défense de Michel a utilisé un programme d’IA générative d’EyeLevel.AI pour compléter ses recherches juridiques.

Kenner a reconnu que son utilisation de l’IA générative pour la plaidoirie finale l’a amené à attribuer à tort les paroles d’une chanson de Puff Daddy aux Fugees. «J’ai fait une erreur», dit-il.

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité