Un avocat de New York fait face à des mesures disciplinaires possibles pour citant un faux cas dans des documents judiciaires générés par l’IA, le dernier contretemps pour les avocats et les tribunaux dans la navigation dans l’évolution de la technologie.
Jae Lee a utilisé ChatGPT pour effectuer des recherches dans un procès pour faute médicale, mais elle a reconnu dans un mémoire à la Cour d’appel des États-Unis pour le Second Circuit qu’elle n’a pas vérifié les résultats du chatbot afin de confirmer la validité de la décision inexistante qu’elle a citée.
Lee a déclaré à Reuters qu’elle était « déterminée à adhérer aux normes professionnelles les plus élevées et à traiter cette question avec le sérieux qu’elle mérite ».
Les modèles d’IA générative qui alimentent les chatbots sont connus pour « halluciner » ou pour fournir des informations inexactes ou des détails inventés. les blancs sont nécessaires pour fournir des réponses créatives à ChatGPT, mais des problèmes peuvent survenir lorsque l’IA fabrique des détails, en particulier ceux qui peuvent avoir des conséquences juridiques. .
Une cour d’appel fédérale à la Nouvelle Orléans a proposé exigeant des avocats pour certifier qu’ils ne s’étaient pas appuyés sur des outils d’IA pour rédiger des mémoires ou que des humains avaient vérifié l’exactitude de tout texte généré par AI dans leurs documents judiciaires. Les avocats qui ne se conforment pas à la règle pourraient voir leurs documents déposés frappé ou fait face à des sanctions. Certains avocats ont repoussé le règle proposée.
Consultez le diaporama ci-dessus pour découvrir trois autres fois où de fausses citations générées par l’IA ont fait surface dans des affaires judiciaires ces dernières années, que ce soit intentionnellement ou pas.