Explorer

Ce Qu il Ne Faut Pas Faire avec l IA

Des erreurs reelles commises par des professionnels du droit avec des outils d IA, documentees avec des cas concrets, des consequences reelles et des lecons que vous ne pouvez pas vous permettre d apprendre par votre propre experience.

Lawra
Apprendre des erreurs des autres est bien moins couteux que de commettre les siennes. Et en droit, les erreurs avec l IA ont un prix.
1

Ne soumettez jamais un texte produit par l'IA sans en lire chaque mot

Les avocats sont personnellement responsables de chaque mot qu'ils soumettent au tribunal. Un texte produit par l'IA peut contenir des citations inventees, de la jurisprudence hallucinee et des affirmations erronees formulees avec assurance.

Risque

Sanctions professionnelles, responsabilite pour faute professionnelle, rejet de l'affaire, signalement aux autorites disciplinaires du barreau

Cas Reel

Dans l'affaire Mata c. Avianca, Inc. (S.D.N.Y. 2023), les avocats Steven Schwartz et Peter LoDuca ont soumis un memoire contenant six references jurisprudentielles entierement inventees par ChatGPT. Lorsque l'avocat de la partie adverse et le juge P. Kevin Castel n'ont pas pu localiser ces decisions, les avocats ont persiste en demandant a ChatGPT de confirmer l'existence des arrets. Le juge Castel a impose une amende de 5 000 dollars a chaque avocat, estimant qu'ils avaient agi de mauvaise foi en ne verifiant pas les resultats de l'IA. Cette affaire est devenue un avertissement mondial.

Que faire à la place

Lisez chaque mot du texte produit par l'IA. Verifiez chaque citation aupres des sources primaires — Westlaw, LexisNexis ou les bases de donnees officielles des tribunaux. Traitez le texte produit par l'IA comme un premier brouillon non verifie provenant d'un stagiaire peu fiable, et non comme un produit fini.

Lawra dit : Je comprends — tout l'interet de l'IA est de gagner du temps. Mais « gagner du temps » en deposant de faux arrets, c'est comme « economiser de l'argent » en ne payant pas son assurance responsabilite professionnelle. Vous ne deposeriez pas un memoire redige par votre collaborateur sans le lire. Vous ne devriez certainement pas deposer un memoire redige par votre robot sans le lire. L'IA n'a pas d'inscription au barreau a perdre. Vous, si.

2

Ne collez pas d'informations confidentielles de clients dans des outils d'IA publics

Les outils d'IA grand public comme ChatGPT, Gemini et Claude (versions gratuites) peuvent utiliser vos saisies pour l'entrainement du modele. Coller des donnees de clients dans ces outils constitue une violation de la confidentialite.

Risque

Violation du secret professionnel avocat-client, manquement au devoir de confidentialite, responsabilite pour faute professionnelle, sanctions reglementaires, destruction de la confiance du client

Cas Reel

En avril 2023, Samsung Electronics a subi trois fuites de donnees distinctes en seulement 20 jours lorsque des ingenieurs ont colle du code source proprietaire, des notes de reunions internes et des donnees de tests materiel dans ChatGPT. Samsung a par la suite interdit toute utilisation d'outils d'IA generative par ses employes. Bien qu'il s'agisse d'un incident d'entreprise, il illustre exactement le risque auquel les avocats sont confrontes : une fois qu'une information entre dans un systeme d'IA public, vous en perdez tout controle. Dans le contexte juridique, le barreau de la ville de New York a publie l'avis formel 2023-7 alertant specifiquement les avocats sur ce risque.

Que faire à la place

L'option la plus sure : installez une IA locale sur votre propre ordinateur — vos donnees ne quittent jamais votre machine (voir notre guide IA locale). Sinon, utilisez des outils d'IA de niveau entreprise avec des garanties contractuelles de protection des donnees (p. ex. Azure OpenAI, ChatGPT Enterprise, Claude for Business). Ne collez jamais d'informations identifiables de clients dans des outils d'IA grand public gratuits. Anonymisez et caviardez avant d'utiliser l'IA pour toute tache liee a un client. Etablissez des protocoles de gestion des donnees IA a l'echelle du cabinet.

Lawra dit : Le secret professionnel avocat-client n'est pas qu'une regle, c'est le fondement de l'ensemble du systeme juridique. Votre client vous a confie ses secrets parce qu'il vous fait confiance. Coller ces secrets dans ChatGPT, c'est comme laisser son dossier ouvert sur un banc public en esperant que personne ne le lise. Sauf que c'est pire — parce qu'au moins un banc public n'apprend pas de ce qu'on y laisse.

3

Ne presumez pas que l'IA comprend votre juridiction

Les modeles d'IA sont entraines sur d'immenses jeux de donnees qui melangent les systemes juridiques de multiples pays et juridictions. Ils confondent regulierement le common law avec le droit civil, les regles federales avec les regles etatiques, et les lois d'un pays avec celles d'un autre.

Risque

Depots fondes sur le droit de la mauvaise juridiction, conseils juridiques errones, responsabilite pour faute professionnelle, perte de credibilite aupres des tribunaux

Cas Reel

Dans un incident documente en 2023 par des chercheurs en technologie juridique, un avocat americain utilisant ChatGPT pour des recherches en droit des contrats a recu des conseils melangeant harmonieusement des principes du Uniform Commercial Code (Etats-Unis), du Sale of Goods Act 1979 (Angleterre et Pays de Galles) et de la Convention des Nations Unies sur les contrats de vente internationale de marchandises (CVIM) — sans aucune indication que trois regimes juridiques differents etaient melanges. L'avocat a failli incorporer des normes juridiques etrangeres dans un litige contractuel purement national. Separement, dans l'affaire disciplinaire de Zachariah C. Crabill au Colorado en 2023, l'avocat a depose des requetes produites par l'IA qui citaient des affaires inexistantes du Colorado, construites a partir de motifs absorbes par l'IA dans de multiples juridictions americaines.

Que faire à la place

Specifiez toujours la juridiction exacte dans vos requetes — Etat, circuit federal, pays et corps de droit applicable. Recoupez chaque resultat de l'IA avec des sources specifiques a la juridiction. Ne faites jamais confiance a l'hypothese implicite de l'IA quant au droit applicable.

Lawra dit : Les modeles d'IA sont comme cet ami grand voyageur qui est alle partout mais qui se souvient de partout comme du meme endroit. « Ah, vous etes au Texas ? Laissez-moi vous parler de ce formidable precedent de... *verifie ses notes*... la High Court d'Angleterre et du Pays de Galles. » La precision juridictionnelle n'est pas un luxe — c'est ce qui distingue le conseil juridique de la fiction juridique.

5

Ne dissimulez pas votre utilisation de l'IA aux tribunaux exigeant une divulgation

Un nombre croissant de tribunaux exigent desormais des avocats qu'ils divulguent l'utilisation d'outils d'IA dans la preparation de leurs ecritures. Ne pas divulguer lorsque cela est requis est un chemin direct vers les sanctions et la perte de credibilite.

Risque

Sanctions pour non-respect des ordonnances du tribunal, perte de confiance judiciaire, procedures disciplinaires, consequences affectant l'issue de l'affaire

Cas Reel

En juin 2023, le juge Brantley Starr du tribunal federal du district nord du Texas a emis l'une des premieres ordonnances permanentes exigeant que tous les avocats certifient que le texte produit par l'IA dans leurs ecritures a ete verifie par un humain. Debut 2024, la Cour d'appel du cinquieme circuit a adopte une regle a l'echelle du circuit exigeant des certifications de divulgation de l'IA. La Cour du onzieme circuit, de nombreux tribunaux federaux de district, ainsi que des tribunaux au Royaume-Uni, au Canada et en Australie ont suivi avec des exigences similaires. En fevrier 2024, un magistrat federal du district est de la Pennsylvanie a sanctionne un avocat pour ne pas avoir divulgue son utilisation de l'IA apres l'adoption d'une regle locale l'exigeant.

Que faire à la place

Verifiez les ordonnances permanentes et les regles locales en vigueur dans chaque juridiction concernant la divulgation de l'IA avant tout depot. Privilegiez la transparence — meme lorsqu'elle n'est pas explicitement requise, la divulgation volontaire renforce la confiance. Elaborez une certification standard de divulgation de l'IA pour votre cabinet.

Lawra dit : Les tribunaux ne vous demandent pas de vous confesser. Ils vous demandent d'etre professionnel. Les regles de divulgation existent parce que les juges en ont eu assez de jouer a « devinez quelles citations sont reelles ». Si vous etes gene de dire a un juge que vous avez utilise l'IA, c'est probablement le signe que vous auriez du l'utiliser avec plus de soin. La transparence n'est pas une faiblesse — c'est le signal que vous assumez la responsabilite de votre produit de travail.

6

Ne traitez pas les resultats de l'IA comme une recherche juridique

L'IA produit du texte juridique plausible, pas une analyse juridique verifiee. Elle genere du texte qui ressemble a de la recherche mais qui n'a pas ete reellement recherche. Traiter les resultats de l'IA comme un substitut a une veritable recherche juridique est un risque professionnel.

Risque

Dependance a des autorites inventees, analyse juridique incomplete, absence de l'autorite de reference, exposition a la faute professionnelle, sanctions

Cas Reel

Une etude de Stanford de 2024 dirigee par les chercheurs Varun Magesh et Daniel E. Ho a teste les capacites de recherche juridique des principaux modeles d'IA (GPT-4, Claude, Llama 2) et a constate qu'ils hallucinaient des citations juridiques entre 69 % et 88 % du temps lorsqu'on leur posait des questions directes de recherche juridique. Meme lorsque les citations etaient reelles, les modeles deformaient frequemment les dispositifs, appliquaient des standards incorrects ou omettaient l'autorite de reference contraire. L'etude, « Hallucinating Law », a demontre qu'aucun modele d'IA actuel n'est fiable en tant qu'outil autonome de recherche juridique.

Que faire à la place

Utilisez l'IA pour generer des hypotheses de recherche, identifier des termes de recherche potentiels et creer des plans preliminaires. Puis effectuez une veritable recherche juridique a l'aide de bases de donnees faisant autorite — Westlaw, LexisNexis, Fastcase, Google Scholar ou les bases de donnees officielles des tribunaux et des organes legislatifs. L'IA est le partenaire de reflexion ; Westlaw est la source de verite.

Lawra dit : Vous ne citeriez pas Wikipedia dans un memoire. Alors pourquoi citeriez-vous quelque chose qui est essentiellement Wikipedia deguise en juriste ? L'IA ne fait pas de recherche. Elle predit du texte. Ce sont des activites fondamentalement differentes. Utilisez-la pour lancer votre recherche, absolument — mais des l'instant ou vous commencez a traiter « ChatGPT a dit » comme « le droit dit », vous avez cesse d'etre avocat pour devenir un correcteur automatique tres couteux.

7

N'utilisez pas l'IA pour des taches exigeant de l'intelligence emotionnelle

Le conseil aux clients, les negociations sensibles, la preparation des temoins et l'annonce de nouvelles difficiles exigent de l'empathie humaine, une sensibilite emotionnelle et un jugement interpersonnel que l'IA ne peut fondamentalement pas fournir.

Risque

Relations client degradees, representation inadequate, violations deontologiques, manquement aux obligations fiduciaires, prejudice aux personnes vulnerables

Cas Reel

En 2023, la National Eating Disorders Association (NEDA) a remplace ses conseillers humains de la ligne d'aide par un chatbot d'IA nomme « Tessa ». En quelques jours, des utilisateurs ont signale que Tessa donnait des conseils susceptibles d'aggraver les troubles alimentaires — notamment en recommandant le comptage des calories et la perte de poids a des personnes cherchant de l'aide pour l'anorexie. La NEDA a desactive Tessa en moins d'une semaine. Bien qu'il ne s'agisse pas d'une affaire juridique, cela illustre parfaitement ce qui se passe lorsque l'IA est deployee dans des contextes exigeant une sensibilite emotionnelle et une comprehension humaine nuancee. Dans le contexte juridique, plusieurs barreaux ont averti que l'IA ne peut remplacer le jugement requis dans le conseil aux clients, en particulier dans les domaines sensibles comme le droit de la famille, la defense penale et l'immigration.

Que faire à la place

Reservez les taches qui exigent de l'empathie, de l'intelligence emotionnelle, la capacite de lire entre les lignes et une connexion humaine aux professionnels humains. Utilisez l'IA pour la recherche de fond et la redaction a l'appui de ces interactions, mais jamais comme substitut a l'interaction humaine elle-meme.

Lawra dit : Votre client n'a pas besoin d'une reponse statistiquement probable a sa bataille pour la garde. Il a besoin de quelqu'un qui le regarde dans les yeux et lui dit : « Je comprends ce que vous traversez, et voici comment nous allons nous battre pour vous. » L'IA peut rediger la requete, mais elle ne peut pas tenir l'espace. Si vous utilisez ChatGPT pour rediger le courriel annoncant a un client que son appel a ete rejete, vous avez fondamentalement mal compris ce dont votre client a besoin de vous a cet instant.

8

N'ignorez pas les directives de votre barreau sur l'IA

Les barreaux aux Etats-Unis et a l'international publient des directives specifiques a l'IA a un rythme accelere. Ce ne sont pas des suggestions — ce sont des interpretations d'obligations deontologiques existantes qui comportent des consequences reelles.

Risque

Action disciplinaire, suspension, radiation, constat de faute professionnelle, perte du statut professionnel

Cas Reel

En janvier 2024, le conseil d'administration du barreau de Floride a publie des directives detaillees sur l'utilisation de l'IA, suivi rapidement par le barreau de Californie, l'association du barreau de l'Etat de New York et de nombreuses autres juridictions. L'ABA a publie l'avis formel 512 en juillet 2024, fournissant des orientations au niveau national. Les avocats qui ont ignore les premieres directives en ont subi les consequences : dans l'affaire disciplinaire Crabill (Colorado, 2024), le tribunal a specifiquement note que les regles deontologiques existantes — meme en l'absence de directives specifiques a l'IA — creaient des obligations que l'avocat n'avait pas respectees. Le message est clair : « Je ne savais pas qu'il y avait des regles sur l'IA » n'est pas une defense lorsque les regles de competence et de supervision existantes s'appliquent deja.

Que faire à la place

Identifiez et lisez immediatement les directives de votre barreau sur l'IA. Abonnez-vous aux mises a jour deontologiques de votre barreau. Si votre juridiction n'a pas encore publie de directives specifiques a l'IA, appliquez les regles deontologiques existantes — competence (regle 1.1), confidentialite (regle 1.6), supervision (regles 5.1 et 5.3) et loyaute (regle 3.3) — a votre utilisation de l'IA. Documentez votre conformite.

Lawra dit : Je sais, je sais — « lisez les directives du barreau » est la version juridique de « mangez vos legumes ». Mais voici le point essentiel : ces directives sont votre bouclier. Quand quelque chose tournera mal — et tot ou tard, pour quelqu'un, cela arrivera — la premiere question du conseil de discipline sera : « Avez-vous suivi les directives applicables ? » Si votre reponse est « Je ne savais pas qu'il en existait », vous avez deja perdu. Et franchement, la plupart de ces directives sont plutot bien redigees. Les barreaux essaient de vous aider. Laissez-les faire.

9

Ne laissez pas l'IA rediger l'integralite de votre memoire

Les memoires produits par l'IA manquent de vision strategique, de voix persuasive et d'argumentation nuancee qui distinguent une defense juridique efficace. Un memoire entierement redige par l'IA est un document generique qui ne sert les interets particuliers d'aucun client.

Risque

Plaidoirie faible, arguments generiques qui ne convainquent pas, opportunites strategiques manquees, perte de la voix professionnelle et de la credibilite de l'avocat

Cas Reel

Dans l'affaire Ex parte Allen Michael Lee (Cour d'appel penale du Texas, 2024), une requete en habeas corpus a ete signalee comme probablement produite par l'IA en raison de son langage generique, de ses motifs de mise en forme inhabituels et de ses arguments qui ne traitaient pas des faits specifiques de l'affaire. Le tribunal a note l'absence d'analyse specifique au cas et la dependance a des propositions juridiques generalisees qui auraient pu s'appliquer a virtuellement n'importe quelle affaire. Bien que la requete n'ait pas ete rejetee uniquement en raison de la suspicion de redaction par l'IA, l'examen minutieux du tribunal illustre comment les memoires produits par l'IA peuvent saper la credibilite. L'analyse de la redaction juridique produite par l'IA realisee en 2024 par la Harvard Law School a montre que, si l'IA peut produire un texte juridique grammaticalement correct et structurellement solide, elle echoue systematiquement a developper le type d'argumentation strategique et persuasive qui fait gagner les affaires.

Que faire à la place

Utilisez l'IA pour la recherche, la structuration et la generation de sections de premier brouillon. Puis reecrivez abondamment — ajoutez votre vision strategique, votre connaissance du juge, votre comprehension des faits specifiques de l'affaire, votre voix persuasive et votre jugement professionnel sur les arguments a mettre en avant, minimiser ou omettre entierement.

Lawra dit : Voici un secret : les juges s'en rendent compte. Ils lisent des memoires depuis des annees, et un memoire produit par l'IA se lit comme un article de Wikipedia deguise en texte juridique — techniquement correct, exhaustivement mediocre et totalement depourvu de l'etincelle strategique qui rend un memoire reellement convaincant. Votre client n'a pas engage Wikipedia. Il vous a engage. Utilisez l'IA pour l'echafaudage, puis construisez quelque chose que vous seul auriez pu construire.

10

Ne presumez pas que les limitations actuelles sont permanentes

Les capacites de l'IA progressent a un rythme exponentiel. Ce que l'IA ne peut pas faire aujourd'hui, elle pourrait le faire avec competence demain. Les avocats qui rejettent l'IA en se fondant sur ses limitations actuelles risquent d'etre pris au depourvu par des progres rapides.

Risque

Obsolescence professionnelle, desavantage concurrentiel, incapacite a adapter sa pratique aux capacites en evolution, impossibilite de servir efficacement les clients alors que la profession se transforme

Cas Reel

En 2022, les professionnels du droit consideraient largement que l'IA etait incapable de reussir l'examen du barreau. En 2023, GPT-4 a reussi le Uniform Bar Examination, se classant approximativement dans le 90e percentile. En 2024, des modeles d'IA juridiques specialises ont commence a surpasser les collaborateurs juniors dans des taches specifiques comme la revision de contrats et la recherche juridique, selon les etudes de LegalBench et d'autres. Thomson Reuters a rapporte que CoCounsel (son outil juridique d'IA propulse par GPT-4) atteignait des taux de precision comparables a ceux d'avocats experimentes pour les taches de revision documentaire. Le rythme du changement a systematiquement depasse les predictions des experts, avec des capacites arrivant des annees en avance sur le calendrier prevu.

Que faire à la place

Restez informe des developpements de l'IA par le biais de sources fiables. Reevaluez vos capacites et flux de travail IA trimestriellement. Integrez l'adaptabilite dans votre pratique — traitez la competence en matiere d'IA comme une competence en evolution, pas comme un apprentissage ponctuel. Investissez dans la formation continue et l'experimentation.

Lawra dit : En 2020, l'analyse « eclairee » etait que l'IA ne pouvait pas gerer les nuances juridiques. En 2023, elle reussissait l'examen du barreau. Si vous construisez votre strategie de carriere sur l'hypothese que l'IA ne peut pas faire X, vous feriez mieux d'avoir un plan pour le jour ou elle le pourra. Je ne dis pas que l'IA remplacera les avocats — je ne le pense sincerement pas. Mais elle remplacera certainement les avocats qui refusent de la comprendre. Les avocats qui prospereront seront ceux qui ont cesse de demander « L'IA peut-elle faire cela ? » pour commencer a demander « Comment puis-je faire cela mieux avec l'IA ? »

Erreurs a Eviter

Regles fondamentales pour l utilisation responsable de l IA dans la pratique juridique.

Ne soumettez pas d ecritures sans verifier chaque mot

L IA genere du texte qui semble autoritaire mais qui peut contenir des citations fabriquees, des articles inexistants et des raisonnements inventes. Affaire Mata v. Avianca : 5 000 USD de sanction par avocat pour des citations fausses generees par ChatGPT.

Ne partagez pas d informations confidentielles de clients

Copier des donnees de clients dans des outils d IA grand public peut violer le secret professionnel et la reglementation sur la protection des donnees (RGPD, Loi Informatique et Libertes). Utilisez des versions professionnelles avec des accords de traitement des donnees.

Ne supposez pas que l IA connait votre juridiction

Les modeles sont entraines principalement sur du droit anglo-saxon. Une reponse sur une societe anonyme peut melanger la reglementation francaise, belge et suisse sans distinction. Specifiez toujours votre juridiction.

Ne deleguez pas le jugement professionnel a la machine

L IA peut traiter l information, mais elle ne peut pas exercer le jugement professionnel que votre client et la loi exigent. La responsabilite ethique et juridique incombe toujours a l avocat, pas a l algorithme.

N utilisez pas l IA sans une politique interne claire

L utilisation ad hoc de l IA sans directives genere des risques incontroles. Chaque cabinet et departement juridique a besoin d une politique definissant quels outils sont approuves, pour quels usages et avec quelles garanties.

N ignorez pas les exigences de divulgation

Des tribunaux du monde entier mettent en place des exigences de declaration sur l utilisation de l IA. Plusieurs juridictions aux Etats-Unis exigent deja une attestation que les ecritures ont ete verifiees par des humains. La tendance s etend a l Europe.

Maintenant, Apprenez Ce Qu il Faut Faire

L IA a un enorme potentiel lorsqu elle est utilisee de maniere responsable. Decouvrez les meilleures pratiques.

Prêt pour un apprentissage structuré ? Découvrir le Programme d'Apprentissage →

Commentaires

Chargement des commentaires...

0/2000 Les commentaires sont modérés avant publication.