L'avocat Steven Schwartz a utilisé ChatGPT pour rédiger un mémoire juridique et l'a soumis contenant six références jurisprudentielles entièrement fabriquées. Le tribunal a sanctionné Schwartz et son confrère pour avoir soumis de faux précédents sans vérification.
Decision
Le tribunal a imposé une amende de 5 000 dollars à Schwartz et à son co-conseil Peter LoDuca, estimant qu'ils avaient agi de mauvaise foi en soumettant des décisions judiciaires inexistantes générées par l'IA et en omettant de les vérifier malgré de multiples occasions de le faire.
Arguments Pour / Implications Positives
- A établi un précédent clair selon lequel les recherches juridiques générées par l'IA doivent être vérifiées avant soumission
- A alerté la profession juridique sur les risques d'hallucinations de l'IA
- A incité les barreaux du monde entier à publier des directives sur l'IA
- Des sanctions relativement modérées indiquent que les tribunaux cherchent à éduquer, non à détruire des carrières
Arguments Contre / Preoccupations
- Les sanctions étaient sans doute trop clémentes pour véritablement dissuader les abus futurs de l'IA
- La décision s'est concentrée sur la négligence de l'avocat plutôt que sur la création de règles spécifiques à l'IA
- Pourrait créer un effet dissuasif décourageant l'utilisation bénéfique de l'IA dans la pratique juridique
- N'a pas abordé la question sous-jacente des normes de fiabilité des outils d'IA
Nos Avis
Cette affaire est le signal d'alarme dont chaque avocat avait besoin. Cela ne signifie pas que vous ne devez pas utiliser l'IA — cela signifie que vous devez vérifier tout ce que l'IA produit, exactement comme vous le feriez pour la première note d'un collaborateur junior. Le devoir de compétence n'a pas changé ; ce sont les outils qui ont changé.Lawra (La Moderee)
Voilà exactement pourquoi je mets en garde contre l'IA dans la pratique juridique. Un avocat a fait confiance à une machine plutôt qu'à ses obligations professionnelles fondamentales. Six fausses affaires. Devant un tribunal fédéral. Si cela ne vous convainc pas que l'IA est un risque dans les prétoires, rien ne le fera.Lawrena (La Sceptique)
Écoutez, un avocat a mal utilisé un outil et s'est fait prendre. Ce n'est pas une mise en accusation de l'IA — c'est une mise en accusation du manque de vérification. Les pilotes n'arrêtent pas d'utiliser le pilote automatique parce que quelqu'un s'est écrasé ; ils s'entraînent mieux. Cette affaire devrait nous pousser vers de meilleurs flux de travail avec l'IA, pas nous en éloigner.Lawrelai (L'Enthousiaste)
Ce n'est pas un échec de l'IA — c'est un échec de processus humain. La vraie leçon n'est pas 'n'utilisez pas l'IA.' C'est 'intégrez la vérification dans votre flux de travail.' L'IA amplifie ce que nous pouvons faire ; elle ne remplace pas la nécessité de penser de manière critique. La profession juridique devrait répondre en intégrant la culture de l'IA dans la formation, pas en reculant devant l'innovation. Les cabinets qui construisent des flux de travail IA structurés maintenant surpasseront ceux qui interdisent les outils par peur.Carlos Miranda Levy (Le Curateur)
Pourquoi cette affaire est importante
Mata v. Avianca est l’affaire qui a lancé un millier de formations continues. Lorsque l’avocat Steven Schwartz a demandé à ChatGPT de trouver de la jurisprudence à l’appui d’une réclamation pour préjudice corporel contre Avianca Airlines, l’IA a produit avec assurance six décisions judiciaires — dont aucune n’existait. Schwartz a soumis les citations fabriquées dans un mémoire devant un tribunal fédéral sans aucune vérification.
Ce qui s’est passé
Le juge P. Kevin Castel a découvert les affaires inexistantes et a ordonné à Schwartz et à son co-conseil Peter LoDuca de s’expliquer. Confronté aux faits, Schwartz a d’abord maintenu ses citations, puis a admis avoir utilisé ChatGPT et « ne pas avoir pensé qu’il pouvait fabriquer des affaires ». Le tribunal a jugé cette explication peu convaincante et a prononcé des sanctions.
L’impact plus large
Cette affaire a à elle seule accéléré la prise de conscience de la profession juridique face à l’IA générative. Dans les mois suivant la décision, des dizaines de tribunaux ont adopté des ordonnances permanentes exigeant des avocats qu’ils déclarent leur utilisation de l’IA. Des barreaux du Texas à l’Union européenne ont publié des avis déontologiques. L’affaire est devenue synonyme de « vérifiez vos résultats d’IA ».
Sources
- Mata v. Avianca, Inc., No. 22-cv-1461 (PKC) (S.D.N.Y. 22 juin 2023) (2023-06-22)
- Voici ce qui se passe quand votre avocat utilise ChatGPT — New York Times (2023-05-27)
Explorez les Cadres Juridiques
Les affaires ne se produisent pas dans le vide. Explorez les cadres reglementaires qui faconnent le droit de l'IA dans le monde entier -- du Reglement europeen sur l'IA aux legislations emergentes en Amerique Latine.
Prêt pour un apprentissage structuré ? Découvrir le Programme d'Apprentissage →
Lawra
Lawrena
Lawrelai
Carlos Miranda Levy
Commentaires
Chargement des commentaires...