Les dossiers juridiques générés par l’IA font des ravages dans le système judiciaire

Accueil » News » Les dossiers juridiques générés par l’IA font des ravages dans le système judiciaire
Les dossiers juridiques générés par l’IA font des ravages dans le système judiciaire

Dans le contexte : Les grands modèles de langage ont déjà été utilisés pour tricher à l’école et diffuser des informations erronées dans les bulletins d’information. Aujourd’hui, ils s’insinuent dans les tribunaux, alimentant de fausses requêtes auxquelles les juges sont confrontés en raison de leur lourde charge de travail, ce qui soulève de nouveaux risques pour un système juridique déjà à bout de souffle.

Un récent rapport d’Ars Technica décrit une décision de la cour d’appel de Géorgie qui met en évidence un risque croissant pour le système juridique américain : Les hallucinations générées par l’IA se glissent dans les dossiers judiciaires et influencent même les décisions de justice. Dans cette affaire de divorce, l’avocat du mari a soumis un projet d’ordonnance truffé de citations de cas qui n’existent pas, probablement inventés par des outils d’IA générative tels que ChatGPT. Le tribunal de première instance a approuvé le document et a ensuite statué en faveur du mari.

Ce n’est que lorsque l’épouse a fait appel que les citations fabriquées ont été révélées. Le jury d’appel, dirigé par le juge Jeff Watkins, a annulé l’ordonnance, notant que les cas fictifs avaient sapé la capacité du tribunal à réviser la décision. Le juge Watkins n’a pas mâché ses mots, qualifiant les citations d’hallucinations possibles de l’intelligence artificielle. Le tribunal a condamné l’avocat du mari à une amende de 2 500 dollars.

Cela peut sembler exceptionnel, mais un avocat a été condamné à une amende de 15 000 dollars en février dans des circonstances similaires. Les experts juridiques avertissent qu’il s’agit probablement d’un signe avant-coureur. Les outils d’IA générative sont notoirement enclins à fabriquer des informations avec une confiance convaincante – un comportement qualifié d' »hallucination ». À mesure que l’IA devient plus accessible aux avocats débordés et aux plaideurs non représentés, les experts affirment que les juges seront de plus en plus confrontés à des dossiers remplis de fausses affaires, de précédents fantômes et de raisonnements juridiques confus habillés de manière à paraître légitimes.

Le problème est aggravé par un système juridique déjà à bout de souffle. Dans de nombreuses juridictions, les juges ont l’habitude d’entériner des ordonnances rédigées par des avocats. Cependant, l’utilisation de l’IA augmente les enjeux.

« Je peux imaginer un tel scénario dans de nombreuses situations où un juge de première instance a une charge de travail importante », a déclaré John Browning, un ancien juge d’appel du Texas et un juriste qui a beaucoup écrit sur l’éthique de l’IA dans le domaine juridique.

M. Browning a déclaré à Ars Technica qu’il pensait qu’il était « effroyablement probable » que ce type d’erreurs devienne plus courant. Lui et d’autres experts avertissent que les tribunaux, en particulier aux niveaux inférieurs, sont mal préparés à gérer cet afflux d’absurdités provoquées par l’IA. Seuls deux États – le Michigan et la Virginie-Occidentale – exigent actuellement des juges qu’ils maintiennent un niveau de base de « compétence technique » en matière d’IA. Certains juges ont complètement interdit les dossiers générés par l’IA ou ont rendu obligatoire la divulgation de l’utilisation de l’IA, mais ces politiques sont inégales, incohérentes et difficiles à mettre en œuvre en raison du volume d’affaires.

Par ailleurs, les dépôts générés par l’IA ne sont pas toujours évidents. Les grands modèles de langage inventent souvent des intitulés d’affaires réalistes, des citations plausibles et un jargon juridique officiel. M. Browning fait remarquer que les juges peuvent être attentifs aux signes révélateurs : sténographes incorrects, numéros d’affaire fictifs tels que « 123456 », ou langage guindé et formel. Toutefois, à mesure que les outils d’IA deviennent plus sophistiqués, ces indices pourraient s’estomper.

Des chercheurs, comme Peter Henderson du Polaris Lab de Princeton, mettent au point des outils permettant de suivre l’influence de l’IA sur les documents déposés au tribunal et plaident en faveur de référentiels ouverts de jurisprudence légitime afin de simplifier la vérification. D’autres ont proposé des solutions novatrices, telles que des « systèmes de primes » pour récompenser ceux qui détectent les affaires fabriquées avant qu’elles ne passent entre les mailles du filet.

Pour l’instant, l’affaire du divorce en Géorgie constitue une mise en garde, non seulement contre les avocats négligents, mais aussi contre un système judiciaire qui pourrait être trop débordé pour suivre l’utilisation de l’IA dans chaque document juridique. Comme l’a prévenu le juge Watkins, si les hallucinations générées par l’IA continuent à se glisser dans les dossiers judiciaires sans être contrôlées, elles menacent d’éroder la confiance dans le système judiciaire lui-même.