← Retour à Toutes les Affaires
Definitif Ethics

Mata v. Avianca, Inc.

Tribunal fédéral de district des États-Unis, District Sud de New York · États-Unis · 2023-06-22 · 22-cv-1461 (PKC)

L'avocat Steven Schwartz a utilisé ChatGPT pour rédiger un mémoire juridique et l'a soumis contenant six références jurisprudentielles entièrement fabriquées. Le tribunal a sanctionné Schwartz et son confrère pour avoir soumis de faux précédents sans vérification.

Decision

Le tribunal a imposé une amende de 5 000 dollars à Schwartz et à son co-conseil Peter LoDuca, estimant qu'ils avaient agi de mauvaise foi en soumettant des décisions judiciaires inexistantes générées par l'IA et en omettant de les vérifier malgré de multiples occasions de le faire.

Arguments Pour / Implications Positives

  • A établi un précédent clair selon lequel les recherches juridiques générées par l'IA doivent être vérifiées avant soumission
  • A alerté la profession juridique sur les risques d'hallucinations de l'IA
  • A incité les barreaux du monde entier à publier des directives sur l'IA
  • Des sanctions relativement modérées indiquent que les tribunaux cherchent à éduquer, non à détruire des carrières

Arguments Contre / Preoccupations

  • Les sanctions étaient sans doute trop clémentes pour véritablement dissuader les abus futurs de l'IA
  • La décision s'est concentrée sur la négligence de l'avocat plutôt que sur la création de règles spécifiques à l'IA
  • Pourrait créer un effet dissuasif décourageant l'utilisation bénéfique de l'IA dans la pratique juridique
  • N'a pas abordé la question sous-jacente des normes de fiabilité des outils d'IA

Nos Avis

Lawra Lawra (La Moderee)
Cette affaire est le signal d'alarme dont chaque avocat avait besoin. Cela ne signifie pas que vous ne devez pas utiliser l'IA — cela signifie que vous devez vérifier tout ce que l'IA produit, exactement comme vous le feriez pour la première note d'un collaborateur junior. Le devoir de compétence n'a pas changé ; ce sont les outils qui ont changé.
Lawrena Lawrena (La Sceptique)
Voilà exactement pourquoi je mets en garde contre l'IA dans la pratique juridique. Un avocat a fait confiance à une machine plutôt qu'à ses obligations professionnelles fondamentales. Six fausses affaires. Devant un tribunal fédéral. Si cela ne vous convainc pas que l'IA est un risque dans les prétoires, rien ne le fera.
Lawrelai Lawrelai (L'Enthousiaste)
Écoutez, un avocat a mal utilisé un outil et s'est fait prendre. Ce n'est pas une mise en accusation de l'IA — c'est une mise en accusation du manque de vérification. Les pilotes n'arrêtent pas d'utiliser le pilote automatique parce que quelqu'un s'est écrasé ; ils s'entraînent mieux. Cette affaire devrait nous pousser vers de meilleurs flux de travail avec l'IA, pas nous en éloigner.
Carlos Miranda Levy Carlos Miranda Levy (Le Curateur)
Ce n'est pas un échec de l'IA — c'est un échec de processus humain. La vraie leçon n'est pas 'n'utilisez pas l'IA.' C'est 'intégrez la vérification dans votre flux de travail.' L'IA amplifie ce que nous pouvons faire ; elle ne remplace pas la nécessité de penser de manière critique. La profession juridique devrait répondre en intégrant la culture de l'IA dans la formation, pas en reculant devant l'innovation. Les cabinets qui construisent des flux de travail IA structurés maintenant surpasseront ceux qui interdisent les outils par peur.

Pourquoi cette affaire est importante

Mata v. Avianca est l’affaire qui a lancé un millier de formations continues. Lorsque l’avocat Steven Schwartz a demandé à ChatGPT de trouver de la jurisprudence à l’appui d’une réclamation pour préjudice corporel contre Avianca Airlines, l’IA a produit avec assurance six décisions judiciaires — dont aucune n’existait. Schwartz a soumis les citations fabriquées dans un mémoire devant un tribunal fédéral sans aucune vérification.

Ce qui s’est passé

Le juge P. Kevin Castel a découvert les affaires inexistantes et a ordonné à Schwartz et à son co-conseil Peter LoDuca de s’expliquer. Confronté aux faits, Schwartz a d’abord maintenu ses citations, puis a admis avoir utilisé ChatGPT et « ne pas avoir pensé qu’il pouvait fabriquer des affaires ». Le tribunal a jugé cette explication peu convaincante et a prononcé des sanctions.

L’impact plus large

Cette affaire a à elle seule accéléré la prise de conscience de la profession juridique face à l’IA générative. Dans les mois suivant la décision, des dizaines de tribunaux ont adopté des ordonnances permanentes exigeant des avocats qu’ils déclarent leur utilisation de l’IA. Des barreaux du Texas à l’Union européenne ont publié des avis déontologiques. L’affaire est devenue synonyme de « vérifiez vos résultats d’IA ».

Sources

Explorez les Cadres Juridiques

Les affaires ne se produisent pas dans le vide. Explorez les cadres reglementaires qui faconnent le droit de l'IA dans le monde entier -- du Reglement europeen sur l'IA aux legislations emergentes en Amerique Latine.

Prêt pour un apprentissage structuré ? Découvrir le Programme d'Apprentissage →

Commentaires

Chargement des commentaires...

0/2000 Les commentaires sont modérés avant publication.