Cas Réel

Mata c. Avianca : Quand les Hallucinations de l'IA Atteignent le Tribunal

En 2023, un avocat new-yorkais a soumis un mémoire juridique citant six décisions judiciaires qui n'ont jamais existé — toutes fabriquées par ChatGPT. Les répercussions ont transformé la manière dont la profession juridique appréhende l'IA.

Durée

4–6 heures

Participants

5–8

← Voir Toutes les Études de Cas

Le Cas

Roberto Mata a intenté un procès pour dommages corporels contre Avianca Airlines devant le tribunal fédéral du district sud de New York, affirmant avoir été blessé lorsqu'un chariot de service métallique a heurté son genou durant un vol. L'affaire semblait assez banale. Ce qui l'a rendue extraordinaire — et finalement tristement célèbre — n'était pas le fond du litige, mais une défaillance catastrophique dans la conduite de la recherche juridique.

Steven A. Schwartz, un avocat exerçant seul avec plus de 30 ans d'expérience au sein du cabinet Levidow, Levidow & Oberman, a été chargé de préparer un mémoire en opposition à la requête en irrecevabilité d'Avianca. En quête d'efficacité, Schwartz s'est tourné vers ChatGPT — un outil qu'il avait récemment commencé à expérimenter — pour effectuer ses recherches juridiques. Le chatbot lui a obligeamment fourni une série de références jurisprudentielles qui semblaient étayer la position de son client.

Le problème était dévastateur : aucune de ces affaires n'existait. ChatGPT avait « halluciné » — générant des décisions judiciaires plausibles mais entièrement fabriquées, avec des noms d'affaires inventés, des numéros de dossier fictifs et un raisonnement juridique imaginaire. Schwartz, ignorant la tendance de l'IA à confabuler, n'a pas vérifié les citations dans les bases de données juridiques traditionnelles. Au lieu de cela, il a demandé à ChatGPT lui-même si les affaires étaient réelles. Le chatbot a confirmé avec assurance qu'elles l'étaient.

Chronologie des événements

1

1er mars 2023 — Le mémoire est déposé

L'avocat Peter LoDuca, associé principal du cabinet, signe et dépose le mémoire en opposition préparé par Schwartz. Le mémoire cite six décisions judiciaires, dont Varghese v. China Southern Airlines, Martinez v. Delta Airlines et Petersen v. Iran Air. Aucune n'existe.

2

Avril 2023 — L'avocat adverse donne l'alerte

Les avocats d'Avianca, incapables de localiser les affaires citées dans les bases de données juridiques, adressent un courrier au tribunal signalant que les citations semblent être fictives et demandant des éclaircissements.

3

4 mai 2023 — Le tribunal exige des explications

Le juge P. Kevin Castel rend une ordonnance exigeant que les avocats soumettent des copies des décisions citées. Schwartz, prenant alors conscience de la gravité de la situation, tente de localiser les affaires sans y parvenir. Il fournit des « décisions » générées par ChatGPT qui sont elles aussi fabriquées.

4

22 juin 2023 — Audience de justification

Le juge Castel convoque une audience de justification (show-cause hearing). Schwartz témoigne sous serment, admettant avoir utilisé ChatGPT et exprimant ses regrets. Il se décrit comme « embarrassé, humilié et profondément plein de remords ». Le procès-verbal révèle qu'il avait même demandé à ChatGPT : « Les affaires que vous avez fournies sont-elles réelles ? » — et que celui-ci avait répondu : « Oui. »

5

22 juin 2023 — Sanctions prononcées

Le juge Castel rend sa décision de sanctions. Schwartz, LoDuca et le cabinet sont chacun condamnés à payer 5 000 $ d'amende. Ils reçoivent également l'ordre d'envoyer une copie de la décision de sanctions à chaque juge faussement cité dans les affaires fabriquées. La décision est publiée et fait les gros titres à l'échelle internationale.

Pourquoi cette affaire est importante

Mata c. Avianca n'a été ni la première erreur commise par un avocat, ni l'affaire de sanctions la plus lourde de conséquences de l'histoire. Mais elle est devenue un moment charnière car elle a cristallisé une nouvelle catégorie de risque professionnel. Pour la première fois, la profession juridique a été confrontée à la réalité que les outils d'IA — accessibles, persuasifs et fondamentalement peu fiables dans leur forme actuelle — pouvaient saper le fondement même de la pratique juridique : le devoir de sincérité envers le tribunal. Dans les mois qui ont suivi la décision, des tribunaux à travers les États-Unis et dans le monde entier ont commencé à émettre des ordonnances permanentes exigeant la divulgation de l'utilisation de l'IA dans les actes de procédure.

Analyse du Contexte

Comprendre le contexte systémique qui a rendu cette affaire possible — et inévitable.

Cadre juridique

  • ABA Model Rule 1.1 — Le devoir de compétence exige des avocats qu'ils comprennent les outils qu'ils utilisent
  • ABA Model Rule 3.3 — Le devoir de sincérité interdit de présenter de fausses informations au tribunal
  • Federal Rule of Civil Procedure 11 — Exige une enquête raisonnable sur les arguments juridiques avancés
  • 28 U.S.C. 1927 — Les avocats sont responsables de la multiplication déraisonnable et vexatoire des procédures

Contexte technologique

  • ChatGPT (GPT-3.5) a été lancé en novembre 2022, atteignant 100 millions d'utilisateurs en deux mois
  • Les grands modèles de langage génèrent du texte probabiliste, et non des faits vérifiés
  • L'« hallucination » — le modèle produit des réponses confiantes et plausibles mais entièrement fabriquées
  • Aucun mécanisme intégré pour vérifier les affirmations auprès de bases de données juridiques faisant autorité

Standards professionnels

  • Les avocats sont personnellement responsables de chaque citation dans leurs écritures
  • La délégation de la recherche ne dispense pas l'avocat signataire de son obligation de vérification
  • La compétence technologique est désormais reconnue comme faisant partie de la compétence professionnelle
  • La bonne foi ne constitue pas une défense pour le défaut de vérification de faits aisément vérifiables

Facteurs systémiques

  • Pression sur les praticiens individuels et les petits cabinets pour adopter des outils de réduction des coûts
  • Décalage entre la rapidité d'adoption de l'IA et l'élaboration de directives professionnelles
  • Absence de programmes de formation pour les avocats sur l'utilisation responsable de l'IA à l'époque
  • Perception publique de l'IA comme infaillible, alimentée par l'engouement médiatique autour du lancement de ChatGPT

Acteurs et Rôles

Dans la simulation de rôles, les participants assument les rôles suivants. Chaque rôle comporte des objectifs distincts, des contraintes et des informations exclusives.

1

Steven Schwartz

Profil

Un avocat en milieu de carrière avec plus de 30 ans d'expérience mais une expertise technologique limitée. A utilisé ChatGPT pour la première fois pour des recherches juridiques, faisant confiance à ses résultats sans vérification indépendante.

Objectifs

  • Minimiser les sanctions personnelles et préserver son droit d'exercer
  • Démontrer un remords sincère et l'absence d'intention malveillante
  • Protéger le dossier sous-jacent de son client contre un rejet

Information Exclusive

Schwartz sait qu'il a explicitement demandé à ChatGPT de confirmer que les affaires étaient réelles, et que celui-ci l'a fait. Il dispose de captures d'écran de la conversation. Il sait également qu'un collaborateur junior l'avait mis en garde sur la fiabilité de l'IA quelques semaines plus tôt, ce qu'il avait rejeté.

2

Juge P. Kevin Castel

Profil

Un juge fédéral chevronné du district sud de New York. Il doit trouver l'équilibre entre une sanction proportionnée et la nécessité d'envoyer un message clair à la profession juridique sur l'utilisation de l'IA.

Objectifs

  • Déterminer des sanctions appropriées qui préservent l'intégrité du tribunal
  • Établir un précédent significatif pour l'utilisation de l'IA dans les actes de procédure sans excéder ses prérogatives
  • S'assurer que l'affaire sous-jacente puisse se poursuivre équitablement sur le fond

Contraintes

Le juge sait que d'autres avocats ont signalé en privé des problèmes similaires à ses greffiers. Il sait que cette décision sera examinée à l'échelle nationale. Il est également conscient de la nécessité de ne pas freiner l'innovation légitime.

3

Peter LoDuca

Profil

Associé principal chez Levidow, Levidow & Oberman. A signé et déposé le mémoire sans vérifier de manière indépendante les recherches. En tant qu'avocat constitué, il porte la responsabilité formelle du dépôt.

Objectifs

  • Protéger la réputation du cabinet et limiter la responsabilité institutionnelle
  • Se distancier de l'utilisation de l'IA par Schwartz tout en reconnaissant un manquement dans la supervision
  • Maintenir la relation avec le client et sauver le dossier

Information Exclusive

LoDuca sait que le cabinet n'a pas de politique d'utilisation de l'IA et que d'autres avocats du cabinet ont également utilisé ChatGPT. Il sait aussi que l'assureur en responsabilité civile professionnelle du cabinet a commencé à poser des questions.

4

Roberto Mata

Profil

Le demandeur dans l'affaire sous-jacente de dommages corporels. Un passager blessé lors d'un vol Avianca dont la demande juridique légitime est désormais éclipsée et mise en péril par la conduite de ses avocats.

Objectifs

  • S'assurer que sa demande en dommages corporels ne soit pas rejetée en raison des erreurs de ses avocats
  • Décider s'il doit chercher un nouveau représentant juridique ou poursuivre avec le cabinet actuel
  • Comprendre ses droits et recours possibles, y compris une action en faute professionnelle

Information Exclusive

Mata n'a jamais été informé que l'IA était utilisée dans son dossier. Il a été contacté par un autre cabinet d'avocats proposant de reprendre son affaire et d'engager une action en faute professionnelle contre Levidow.

5

Avocat adverse

Profil

L'avocat de la défense d'Avianca, issu d'un grand cabinet d'affaires. A découvert les citations fabriquées lors d'une vérification de routine des recherches et a porté le problème à l'attention du tribunal.

Objectifs

  • Protéger les intérêts d'Avianca et potentiellement demander le rejet définitif de l'affaire
  • Décider avec quelle fermeté poursuivre les sanctions sans paraître vindicatif
  • Utiliser la situation de manière stratégique tout en maintenant la courtoisie professionnelle

Contraintes

Le propre cabinet de l'avocat adverse a récemment adopté des outils d'IA pour la revue documentaire. Il doit équilibrer un plaidoyer agressif avec la conscience qu'une demande de sanctions excessivement zélée pourrait se retourner contre la profession dans son ensemble.

6

Conseiller en déontologie juridique

Profil

Un représentant du Comité de déontologie professionnelle du Barreau de l'État de New York. Présent en qualité d'observateur de type amicus curiae évaluant les implications en matière de conduite professionnelle.

Objectifs

  • Évaluer si les règles déontologiques existantes traitent adéquatement l'utilisation de l'IA dans la pratique juridique
  • Recommander si de nouvelles directives ou des avis formels sont nécessaires
  • Concilier l'innovation avec la protection de l'intérêt public

Information Exclusive

Le conseiller en déontologie dispose de données montrant que 23 % des avocats new-yorkais interrogés ont utilisé l'IA générative pour des tâches professionnelles, et que seuls 11 % des cabinets ont adopté des politiques formelles d'utilisation de l'IA. Un avis déontologique formel est en cours de rédaction mais n'a pas encore été publié.

Activités d'Apprentissage

Six types de tâches basés sur la méthodologie Smoother, conçus pour construire progressivement une compréhension approfondie de l'affaire et de ses implications.

  • Lisez le récit complet de l'affaire et les documents judiciaires. Identifiez les cinq faits clés qui ont conduit à l'ordonnance de sanctions.
  • Dressez la liste de tous les acteurs impliqués (individus, institutions et technologies) et de leurs rôles dans la séquence des événements.
  • Recherchez les capacités de ChatGPT (GPT-3.5) début 2023. Notez ce qui était publiquement connu sur les hallucinations à cette époque.
  • Identifiez les ABA Model Rules et les Federal Rules spécifiquement en cause. Résumez chacune en une phrase.
  • Notez quels aspects de cette affaire vous semblent familiers par rapport à votre propre expérience professionnelle et lesquels sont entièrement nouveaux.
  • Résumez l'affaire avec vos propres mots (200 mots maximum), comme si vous l'expliquiez à un collègue qui n'en a jamais entendu parler.
  • Créez une cartographie des parties prenantes montrant les relations et les dynamiques de pouvoir entre toutes les parties.
  • Expliquez l'affaire du point de vue de Schwartz : Que cherchait-il à accomplir ? Que croyait-il au sujet de la technologie ?
  • Expliquez-la maintenant du point de vue du juge Castel : Quelles obligations incombaient au tribunal ? Quel message fallait-il faire passer ?
  • Identifiez le moment où la situation est devenue irréversible. Aurait-elle pu être détectée plus tôt ? Par qui ?
  • Évaluez chaque décision prise par Schwartz dans l'ordre chronologique. À quel moment la négligence est-elle devenue une conduite sanctionnable ?
  • Identifiez les défaillances systémiques : Qu'auraient dû faire différemment le cabinet, la profession juridique et l'industrie technologique ?
  • Évaluez la fiabilité des différentes sources d'information dans cette affaire : ChatGPT, Westlaw/LexisNexis, le jugement propre de l'avocat, la relecture par les pairs.
  • Remettez en question l'hypothèse selon laquelle un « avocat raisonnable » aurait repéré cette erreur. Ce standard est-il réaliste en 2023 ?
  • Les sanctions étaient-elles proportionnées ? Comparez avec les sanctions prononcées dans d'autres affaires impliquant des références fabriquées ou faussement présentées.
  • Analysez la tension entre l'encouragement de l'innovation en matière d'IA dans la pratique juridique et la protection de l'intégrité du processus judiciaire.
  • Rédigez une politique d'utilisation de l'IA pour un cabinet de taille moyenne qui répond aux défaillances spécifiques révélées par cette affaire.
  • Concevez un processus de vérification : Lorsqu'un avocat utilise l'IA pour des recherches juridiques, quelles étapes doivent être suivies avant qu'une citation ne soit incluse dans un acte de procédure ?
  • Simulez l'audience de sanctions : dans le rôle qui vous a été attribué, préparez une déclaration liminaire de 3 minutes.
  • Créez une « Liste de vérification pour la recherche assistée par l'IA » d'une page pouvant être affichée dans le département de recherche d'un cabinet d'avocats.
  • Proposez un module de formation continue juridique (CLE) sur la littératie en IA pour les avocats en exercice. Élaborez le programme.
  • Auto-évaluation : avant et après l'étude de cette affaire, évaluez votre compréhension des risques de l'IA dans la pratique juridique sur une échelle de 1 à 10. Qu'est-ce qui a changé ?
  • Échangez votre projet de politique d'utilisation de l'IA avec un autre participant. Fournissez un retour écrit : quels points sont bien couverts ? Quelles lacunes subsistent ?
  • Évaluez les processus de vérification proposés par les autres groupes. Lequel serait le plus pratique dans un cabinet réel ? Pourquoi ?
  • Examinez la véritable décision de sanctions du juge Castel. A-t-elle atteint ses objectifs déclarés ? Qu'auriez-vous fait différemment ?
  • Évaluez si les sanctions ont eu l'effet dissuasif escompté. Recherchez les affaires ultérieures d'utilisation abusive de l'IA dans les actes de procédure.
  • Quelles hypothèses sur l'IA aviez-vous avant d'étudier cette affaire ? Lesquelles ont changé ?
  • Comment cette affaire se rattache-t-elle à votre propre pratique professionnelle ? Identifiez une manière concrète dont votre comportement va changer.
  • Réfléchissez à votre réaction émotionnelle face à la situation de Schwartz. Avez-vous ressenti de la sympathie, du jugement, ou autre chose ? Comment cela a-t-il influencé votre analyse ?
  • Considérez le facteur « cela aurait pu m'arriver » : à quel point vous êtes-vous déjà appuyé sur des informations non vérifiées dans votre propre travail ?
  • Rédigez une brève réflexion (150 mots) sur vos trois enseignements les plus importants et une action concrète à mettre en oeuvre dans les 30 prochains jours.

Simulation de Rôles

Un exercice de jeu de rôles immersif qui place les participants dans la salle d'audience le jour de l'audience de justification.

Scénario de la Simulation

Nous sommes le 22 juin 2023. Le juge P. Kevin Castel a convoqué une audience de justification dans la salle d'audience du Daniel Patrick Moynihan United States Courthouse, dans le sud de Manhattan. Steven Schwartz, Peter LoDuca, l'avocat adverse et Roberto Mata sont tous présents. Le conseiller en déontologie juridique a été invité par le tribunal en qualité d'observateur amicus. Le juge a lu les mémoires. La salle d'audience est remplie de journalistes. Chacun sait que ce qui se passera dans cette salle aujourd'hui aura des répercussions dans toute la profession juridique.

Règles

Durée totale

90 minutes

Communication

Toutes les déclarations sont adressées par l'intermédiaire du juge ; pas de conversations en aparté sauf autorisation du juge

Mécanisme de décision

Le juge rend sa décision à la fin ; toutes les parties peuvent faire des déclarations finales

Phases

Phase 1

Préparation (20 minutes)

Chaque participant étudie sa fiche de rôle et ses informations exclusives. Préparez votre position, anticipez les questions et identifiez vos arguments clés. Schwartz et LoDuca peuvent brièvement se concerter. Le juge examine le dossier et prépare ses questions.

Phase 2

Simulation de l'audience (45 minutes)

Le juge ouvre les débats et s'adresse à chaque partie. Schwartz et LoDuca expliquent la situation. L'avocat adverse présente sa position. Roberto Mata peut s'adresser au tribunal. Le conseiller en déontologie offre son éclairage sur les standards professionnels. Le juge interroge toutes les parties.

Phase 3

Délibération et décision (25 minutes)

Le juge se retire brièvement pour délibérer (5 minutes). Il revient pour rendre sa décision et en expliquer les motifs. Toutes les parties peuvent faire de brèves déclarations finales. Le conseiller en déontologie formule ses observations de clôture sur les implications pour la profession.

Variations optionnelles

  • Et si Schwartz avait divulgué volontairement ? Rejouez le scénario en supposant que Schwartz a découvert l'erreur lui-même et a immédiatement informé le tribunal. Comment l'audience change-t-elle ? Des sanctions seraient-elles toujours appropriées ?
  • Et si le client poursuivait le cabinet ? Après l'audience de sanctions, organisez une seconde simulation dans laquelle Roberto Mata a retenu un nouveau conseil et engage une action en faute professionnelle contre Levidow, Levidow & Oberman.
  • Et si cela s'était produit dans votre juridiction ? Adaptez le scénario à vos règles locales de déontologie professionnelle et aux procédures de votre tribunal. En quoi le résultat serait-il différent ?

Débriefing

Après la simulation, utilisez ces questions pour guider la discussion de groupe et la réflexion individuelle.

Réflexion depuis le rôle

  • Qu'avez-vous ressenti dans le rôle qui vous était attribué ? Quelles pressions et contraintes ont façonné vos décisions ?
  • Quels arguments des autres parties avez-vous trouvés les plus et les moins convaincants ?
  • Y a-t-il eu un moment durant la simulation où vous vous êtes senti véritablement tiraillé ? Décrivez-le.
  • Si vous pouviez revenir en arrière et changer une chose que votre personnage a faite, laquelle serait-ce ?

Révélation de l'asymétrie d'information

  • Chaque rôle disposait d'informations exclusives. Partagez les vôtres maintenant avec le groupe. En quoi le fait de les connaître plus tôt aurait-il changé la dynamique ?
  • Y a-t-il eu des moments où vous avez soupçonné une autre partie de retenir des informations ? Aviez-vous raison ?
  • Comment l'asymétrie d'information a-t-elle affecté l'équité et l'issue de l'audience ?

Réflexion hors rôle

  • Sortez de votre rôle. Êtes-vous d'accord avec la décision rendue lors de la simulation ? Pourquoi ou pourquoi pas ?
  • Comparez le résultat de la simulation avec la véritable décision du tribunal. Qu'y avait-il de similaire ? Qu'y avait-il de différent ?
  • Quels principes éthiques étaient en tension dans cette affaire ? Y a-t-il une « bonne réponse » évidente ?
  • Auriez-vous sanctionné Schwartz plus sévèrement, moins sévèrement, ou de la même manière que le juge Castel l'a effectivement fait ?

Lien avec le monde réel

  • Votre cabinet ou organisation dispose-t-il actuellement d'une politique d'utilisation de l'IA ? Si oui, aurait-elle prévenu cette situation ? Sinon, que devrait-elle inclure ?
  • Avez-vous personnellement utilisé l'IA générative pour des tâches professionnelles ? Cette étude de cas a-t-elle changé votre manière d'y penser ?
  • Quel est le changement systémique le plus important qui pourrait prévenir de futures situations comme Mata c. Avianca ?
  • Nommez une action concrète que vous entreprendrez dans le mois qui vient, en vous fondant sur ce que vous avez appris aujourd'hui.

Références et Sources

Documents judiciaires

  • Mata v. Avianca, Inc., No. 22-cv-1461 (PKC) (S.D.N.Y. 2023) — Dossier et historique de l'affaire
  • Order to Show Cause, du 11 avril 2023 — Ordonnance initiale du juge Castel exigeant une explication des autorités citées
  • Affidavit de Steven A. Schwartz, du 25 mai 2023 — Témoignage sous serment de l'avocat sur l'utilisation de ChatGPT
  • Sanctions Opinion and Order, du 22 juin 2023 — Décision publiée du juge Castel prononçant les sanctions

Standards professionnels

  • ABA Model Rules of Professional Conduct, Rule 1.1 (Competence) — Commentaire 8 sur la compétence technologique
  • ABA Model Rules of Professional Conduct, Rule 3.3 (Candor Toward the Tribunal)
  • New York Rules of Professional Conduct, Rules 1.1 et 3.3
  • Federal Rules of Civil Procedure, Rule 11 — Representations to the Court

Analyse et commentaires

  • Thomson Reuters, « ChatGPT et la jurisprudence : Mata v. Avianca et les risques de la recherche juridique générée par IA » (2023)
  • American Bar Association, « L'avocat sanctionné pour avoir utilisé ChatGPT — Ce que cela signifie pour la profession » (2023)
  • Reuters Legal News, "New York Lawyers Sanctioned for Using Fake ChatGPT Cases in Legal Brief" (juin 2023)
  • Legal Ethics Forum, « Le problème Mata v. Avianca : hallucination, vérification et devoir de compétence » (2023)
  • Artificial Lawyer, « Après Mata : comment les tribunaux répondent à l'IA dans les actes juridiques » (2023-2024)

Prêt à explorer cette affaire ?

Cette étude de cas est conçue pour une facilitation guidée dans le cadre du Programme d'Apprentissage Lawra. Demandez un programme personnalisé incluant une simulation de rôles avec modération experte.

Voir Toutes les Études de Cas

Commentaires

Chargement des commentaires...

0/2000 Les commentaires sont modérés avant publication.