Realer Fall

Mata v. Avianca: Wenn KI-Halluzinationen den Gerichtssaal erreichen

Im Jahr 2023 reichte ein New Yorker Anwalt einen Schriftsatz ein, der sechs Gerichtsentscheidungen zitierte, die nie existierten — alle von ChatGPT erfunden. Die Konsequenzen veränderten, wie die Anwaltschaft über KI denkt.

Dauer

4–6 Stunden

Teilnehmer

5–8

← Alle Fallstudien anzeigen

Der Fall

Roberto Mata reichte eine Klage wegen Personenschaden gegen Avianca Airlines beim Southern District of New York ein und behauptete, er sei verletzt worden, als ihn ein Metallservierwagen während eines Fluges am Knie getroffen habe. Der Fall schien routinemäßig genug. Was ihn außergewöhnlich — und letztlich berüchtigt — machte, war nicht der Streitgegenstand, sondern ein katastrophales Versagen bei der juristischen Recherche.

Steven A. Schwartz, ein Einzelanwalt mit über 30 Jahren Erfahrung, der bei der Kanzlei Levidow, Levidow & Oberman tätig war, wurde mit der Erstellung einer Erwiderung auf Aviancas Klageabweisungsantrag beauftragt. Auf der Suche nach Effizienz wandte sich Schwartz an ChatGPT — ein Tool, mit dem er erst kürzlich zu experimentieren begonnen hatte — um juristische Recherche durchzuführen. Der KI-Chatbot lieferte ihm bereitwillig eine Reihe von Rechtsprechungszitaten, die seine Mandantenposition zu stützen schienen.

Es gab ein verheerendes Problem: Keiner der Fälle war real. ChatGPT hatte "halluziniert" — plausibel klingende, aber vollständig erfundene Gerichtsentscheidungen generiert, komplett mit erfundenen Fallbezeichnungen, Aktenzeichen und Rechtsbegründungen. Schwartz, der mit der Neigung der KI zur Konfabulation nicht vertraut war, überprüfte die Zitate nicht über traditionelle juristische Datenbanken. Stattdessen fragte er ChatGPT selbst, ob die Fälle real seien. Der Chatbot bestätigte selbstbewusst, dass sie es seien.

Zeitlicher Ablauf

1

1. März 2023 — Der Schriftsatz wird eingereicht

Anwalt Peter LoDuca, ein Seniorpartner der Kanzlei, unterzeichnet und reicht den von Schwartz erstellten Erwiderungsschriftsatz ein. Der Schriftsatz zitiert sechs Gerichtsentscheidungen, darunter Varghese v. China Southern Airlines, Martinez v. Delta Airlines und Petersen v. Iran Air. Keine davon existiert.

2

April 2023 — Die Gegenseite schlägt Alarm

Aviancas Anwälte, die keinen der zitierten Fälle in juristischen Datenbanken finden können, reichen ein Schreiben beim Gericht ein, in dem sie darauf hinweisen, dass die Zitate fiktiv zu sein scheinen, und um Klärung bitten.

3

4. Mai 2023 — Das Gericht verlangt Antworten

Richter P. Kevin Castel erlässt eine Verfügung, die die Anwälte verpflichtet, Kopien der zitierten Entscheidungen vorzulegen. Schwartz, der nun die Tragweite der Situation erkennt, versucht die Fälle zu finden und kann es nicht. Er legt von ChatGPT generierte "Entscheidungen" vor, die ebenfalls erfunden sind.

4

22. Juni 2023 — Anhörung zur Begründungspflicht

Richter Castel beruft eine Anhörung zur Begründungspflicht ein. Schwartz sagt unter Eid aus und gibt die Nutzung von ChatGPT zu, wobei er sein Bedauern ausdrückt. Er beschreibt sich als "beschämt, gedemütigt und zutiefst reuig." Das Protokoll zeigt, dass er ChatGPT sogar fragte: "Sind die von dir genannten Fälle real?" — worauf es antwortete: "Ja."

5

22. Juni 2023 — Sanktionen verhängt

Richter Castel erlässt seinen Sanktionsbeschluss. Schwartz, LoDuca und die Kanzlei werden jeweils zu einer Geldstrafe von 5.000 Dollar verurteilt. Ihnen wird ferner auferlegt, Kopien des Sanktionsbeschlusses an jeden Richter zu senden, der in den erfundenen Fällen fälschlicherweise zitiert wurde. Der Beschluss wird veröffentlicht und macht internationale Schlagzeilen.

Warum dieser Fall wichtig ist

Mata v. Avianca war nicht das erste Mal, dass ein Anwalt einen Fehler machte, und auch nicht der folgenreichste Sanktionsfall der Geschichte. Aber er wurde zu einem Wendepunkt, weil er eine neue Kategorie beruflichen Risikos kristallisierte. Zum ersten Mal sah sich die Anwaltschaft mit der Realität konfrontiert, dass KI-Tools — zugänglich, überzeugend und in ihrer aktuellen Form grundlegend unzuverlässig — die Grundlage der Anwaltspraxis untergraben können: die Wahrheitspflicht gegenüber dem Gericht. Innerhalb weniger Monate nach dem Urteil begannen Gerichte in den USA und weltweit, ständige Anordnungen zu erlassen, die die Offenlegung der KI-Nutzung in Gerichtsschriftsätzen verlangen.

Kontextanalyse

Verständnis des systemischen Kontextes, der diesen Fall möglich — und unvermeidlich — machte.

Rechtsrahmen

  • ABA Model Rule 1.1 — Die Sorgfaltspflicht erfordert, dass Anwälte die von ihnen verwendeten Werkzeuge verstehen
  • ABA Model Rule 3.3 — Die Wahrheitspflicht verbietet die Vorlage falscher Informationen vor Gericht
  • Federal Rule of Civil Procedure 11 — Erfordert eine angemessene Überprüfung rechtlicher Behauptungen
  • 28 U.S.C. 1927 — Anwälte haften für unangemessene und mutwillige Vervielfachung von Verfahrenshandlungen

Technologiekontext

  • ChatGPT (GPT-3.5) wurde im November 2022 eingeführt und erreichte in zwei Monaten 100 Millionen Nutzer
  • Large Language Models generieren probabilistischen Text, keine verifizierten Fakten
  • "Halluzination" — das Modell erzeugt selbstbewusste, plausibel klingende, aber erfundene Ausgaben
  • Kein eingebauter Mechanismus zur Überprüfung von Behauptungen anhand autorisierter juristischer Datenbanken

Berufsstandards

  • Anwälte sind persönlich für jedes Zitat in ihren Schriftsätzen verantwortlich
  • Die Delegation der Recherche befreit den unterzeichnenden Anwalt nicht von der Überprüfungspflicht
  • Technologiekompetenz wird mittlerweile als Teil der beruflichen Kompetenz anerkannt
  • Guter Glaube ist keine Verteidigung gegen das Versäumnis, leicht überprüfbare Fakten zu verifizieren

Systemische Faktoren

  • Druck auf Einzelanwälte und kleine Kanzleien, kostensparende Tools einzuführen
  • Kluft zwischen der Geschwindigkeit der KI-Einführung und der Entwicklung professioneller Leitlinien
  • Mangel an Schulungsprogrammen für Anwälte zur verantwortungsvollen KI-Nutzung zum damaligen Zeitpunkt
  • Öffentliche Wahrnehmung von KI als unfehlbar, befeuert durch den Medienhype um ChatGPTs Einführung

Beteiligte & Rollen

In der Rollensimulation übernehmen die Teilnehmer die folgenden Rollen. Jede Rolle hat eigene Ziele, Einschränkungen und exklusive Informationen.

1

Steven Schwartz

Profil

Ein Anwalt in der Karrieremitte mit über 30 Jahren Erfahrung, aber begrenzter technologischer Expertise. Nutzte ChatGPT erstmals für juristische Recherche und vertraute den Ergebnissen ohne unabhängige Überprüfung.

Ziele

  • Persönliche Sanktionen minimieren und seine Anwaltszulassung bewahren
  • Aufrichtige Reue und fehlende böswillige Absicht demonstrieren
  • Den zugrunde liegenden Fall seines Mandanten vor einer Abweisung schützen

Exklusive Informationen

Schwartz weiß, dass er ChatGPT ausdrücklich bat, die Fälle als real zu bestätigen, und es tat dies. Er hat Screenshots des Gesprächs. Er weiß auch, dass ein junger Anwaltsreferendar ihn Wochen zuvor vor der Unzuverlässigkeit von KI warnte, was er abtat.

2

Richter P. Kevin Castel

Profil

Ein erfahrener Bundesrichter im Southern District of New York. Muss verhältnismäßige Bestrafung mit der Notwendigkeit abwägen, der Anwaltschaft eine klare Botschaft zur KI-Nutzung zu senden.

Ziele

  • Angemessene Sanktionen bestimmen, die die Integrität des Gerichts wahren
  • Bedeutsamen Präzedenzfall für KI-Nutzung in Gerichtsschriftsätzen setzen, ohne zu weit zu gehen
  • Sicherstellen, dass der zugrunde liegende Fall fair in der Sache verhandelt werden kann

Einschränkungen

Der Richter ist sich bewusst, dass andere Anwälte seinen Referendaren privat von ähnlichen Problemen berichtet haben. Er weiß, dass dieses Urteil landesweit genau beobachtet wird. Er ist sich auch der Notwendigkeit bewusst, legitime Innovation nicht zu hemmen.

3

Peter LoDuca

Profil

Seniorpartner bei Levidow, Levidow & Oberman. Hat den Schriftsatz unterzeichnet und eingereicht, ohne die Recherche unabhängig zu überprüfen. Als eingetragener Anwalt trägt er die formale Verantwortung für die Einreichung.

Ziele

  • Den Ruf der Kanzlei schützen und die institutionelle Haftung begrenzen
  • Sich von Schwartz' KI-Nutzung distanzieren und gleichzeitig ein Aufsichtsversagen eingestehen
  • Die Mandantenbeziehung aufrechterhalten und den Fall retten

Exklusive Informationen

LoDuca weiß, dass die Kanzlei keine KI-Nutzungsrichtlinie hat und dass auch andere Anwälte der Kanzlei ChatGPT verwendet haben. Er weiß auch, dass der Berufshaftpflichtversicherer der Kanzlei Fragen gestellt hat.

4

Roberto Mata

Profil

Der Kläger im zugrunde liegenden Personenschadensfall. Ein Passagier, der auf einem Avianca-Flug verletzt wurde, dessen legitimer Rechtsanspruch nun von der Verfahrensweise seiner Anwälte überschattet und gefährdet wird.

Ziele

  • Sicherstellen, dass sein Personenschadensanspruch nicht wegen der Fehler seiner Anwälte abgewiesen wird
  • Entscheiden, ob er eine neue Vertretung sucht oder bei der aktuellen Kanzlei bleibt
  • Seine Rechte und möglichen Rechtsmittel verstehen, einschließlich einer Anwaltshaftungsklage

Exklusive Informationen

Mata wurde nie darüber informiert, dass KI in seinem Fall eingesetzt wurde. Er wurde von einer anderen Kanzlei kontaktiert, die anbietet, seinen Fall zu übernehmen und eine Anwaltshaftungsklage gegen Levidow zu erheben.

5

Gegenanwalt

Profil

Aviancas Verteidigungsanwalt von einer großen Wirtschaftskanzlei. Entdeckte die erfundenen Zitate bei der routinemäßigen Rechercheüberprüfung und brachte das Problem vor Gericht.

Ziele

  • Aviancas Interessen schützen und möglicherweise eine Abweisung mit Präklusionswirkung anstreben
  • Entscheiden, wie aggressiv Sanktionen verfolgt werden sollen, ohne rachsüchtig zu wirken
  • Die Situation strategisch nutzen und dabei professionelle Höflichkeit wahren

Einschränkungen

Die eigene Kanzlei des Gegenanwalts hat kürzlich KI-Tools für die Dokumentenprüfung eingeführt. Er muss aggressive Interessenvertretung mit dem Bewusstsein abwägen, dass ein überzogenes Streben nach Sanktionen auf den Berufsstand insgesamt zurückfallen könnte.

6

Rechtsethik-Berater

Profil

Ein Vertreter des Ethikausschusses der New York State Bar Association. Als amicus-ähnlicher Beobachter anwesend, der die berufsrechtlichen Auswirkungen bewertet.

Ziele

  • Bewerten, ob bestehende Ethikregeln die KI-Nutzung in der Anwaltspraxis ausreichend adressieren
  • Empfehlen, ob neue Leitlinien oder formelle Stellungnahmen erforderlich sind
  • Innovation mit dem Schutz des öffentlichen Interesses in Einklang bringen

Exklusive Informationen

Der Ethik-Berater verfügt über Daten, die zeigen, dass 23 % der befragten New Yorker Anwälte generative KI für Arbeitsaufgaben genutzt haben und nur 11 % der Kanzleien formelle KI-Nutzungsrichtlinien eingeführt haben. Eine formelle ethische Stellungnahme wird erarbeitet, ist aber noch nicht veröffentlicht.

Lernaktivitäten

Sechs Aufgabentypen nach der Smoother-Methodik, die progressiv ein tieferes Verständnis des Falls und seiner Auswirkungen aufbauen.

  • Lesen Sie den vollständigen Fallbericht und die Gerichtsunterlagen. Identifizieren Sie die fünf Schlüsselfakten, die zum Sanktionsbeschluss führten.
  • Listen Sie alle beteiligten Akteure auf (Einzelpersonen, Institutionen und Technologien) und ihre Rollen im Ablauf der Ereignisse.
  • Recherchieren Sie, wozu ChatGPT (GPT-3.5) Anfang 2023 fähig war. Notieren Sie, was damals öffentlich über Halluzinationen bekannt war.
  • Identifizieren Sie die spezifischen ABA Model Rules und Federal Rules, die betroffen sind. Fassen Sie jede in einem Satz zusammen.
  • Notieren Sie, welche Aspekte dieses Falls Ihnen aus Ihrer eigenen beruflichen Erfahrung vertraut vorkommen und welche völlig neu sind.
  • Fassen Sie den Fall in Ihren eigenen Worten zusammen (max. 200 Wörter), als würden Sie ihn einem Kollegen erklären, der noch nie davon gehört hat.
  • Erstellen Sie eine Stakeholder-Karte, die die Beziehungen und Machtverhältnisse zwischen allen Parteien zeigt.
  • Erklären Sie den Fall aus Schwartz' Perspektive: Was wollte er erreichen? Was glaubte er über die Technologie?
  • Erklären Sie ihn nun aus der Perspektive von Richter Castel: Welche Verpflichtungen hatte das Gericht? Welche Botschaft musste gesendet werden?
  • Identifizieren Sie den Moment, in dem die Situation unumkehrbar wurde. Hätte sie früher erkannt werden können? Von wem?
  • Bewerten Sie jede Entscheidung, die Schwartz in der Reihenfolge traf. Ab welchem Punkt wurde Fahrlässigkeit zu sanktionswürdigem Verhalten?
  • Identifizieren Sie die systemischen Versagen: Was hätten die Kanzlei, der Berufsstand und die Technologiebranche jeweils anders machen sollen?
  • Bewerten Sie die Zuverlässigkeit verschiedener Informationsquellen in diesem Fall: ChatGPT, Westlaw/LexisNexis, das eigene Urteilsvermögen des Anwalts, Peer-Review.
  • Hinterfragen Sie die Annahme, dass ein "vernünftiger Anwalt" diesen Fehler erkannt hätte. Ist dieser Maßstab im Jahr 2023 realistisch?
  • Waren die Sanktionen verhältnismäßig? Vergleichen Sie mit Sanktionen in anderen Fällen, die erfundene oder falsch dargestellte Rechtsgrundlagen betrafen.
  • Analysieren Sie die Spannung zwischen der Förderung von KI-Innovation in der Anwaltspraxis und dem Schutz der Integrität des Gerichtsverfahrens.
  • Entwerfen Sie eine KI-Nutzungsrichtlinie für eine mittelgroße Kanzlei, die die spezifischen Versagen dieses Falls adressiert.
  • Gestalten Sie einen Überprüfungsworkflow: Wenn ein Anwalt KI für juristische Recherche nutzt, welche Schritte müssen befolgt werden, bevor ein Zitat in einen Schriftsatz aufgenommen wird?
  • Spielen Sie die Sanktionsanhörung durch: Bereiten Sie als Ihre zugewiesene Rolle eine dreiminütige Eröffnungserklärung vor.
  • Erstellen Sie eine einseitige "KI-Recherche-Checkliste", die in der Rechercheabteilung einer Kanzlei ausgehängt werden könnte.
  • Schlagen Sie ein Fortbildungsmodul (CLE) zur KI-Kompetenz für praktizierende Anwälte vor. Skizzieren Sie den Lehrplan.
  • Selbsteinschätzung: Bewerten Sie vor und nach dem Studium dieses Falls Ihr Verständnis von KI-Risiken in der Anwaltspraxis auf einer Skala von 1-10. Was hat sich verändert?
  • Tauschen Sie Ihren Entwurf der KI-Nutzungsrichtlinie mit einem anderen Teilnehmer aus. Geben Sie schriftliches Feedback: Was deckt er gut ab? Welche Lücken bestehen?
  • Bewerten Sie die vorgeschlagenen Überprüfungsworkflows anderer Gruppen. Welcher wäre in einer realen Kanzlei am praktischsten? Warum?
  • Lesen Sie Richter Castels tatsächlichen Sanktionsbeschluss. Hat er seine erklärten Ziele erreicht? Was hätten Sie anders gemacht?
  • Bewerten Sie, ob die Sanktionen die beabsichtigte abschreckende Wirkung hatten. Recherchieren Sie nachfolgende Fälle von KI-Missbrauch in Gerichtsschriftsätzen.
  • Welche Annahmen über KI hatten Sie vor dem Studium dieses Falls? Welche dieser Annahmen haben sich verändert?
  • Wie hängt dieser Fall mit Ihrer eigenen beruflichen Praxis zusammen? Identifizieren Sie eine konkrete Art, wie sich Ihr Verhalten ändern wird.
  • Reflektieren Sie Ihre emotionale Reaktion auf Schwartz' Situation. Haben Sie Sympathie, Verurteilung oder etwas anderes empfunden? Wie hat das Ihre Analyse beeinflusst?
  • Bedenken Sie den "Gnade-Gottes"-Faktor: Wie nah sind Sie in Ihrer eigenen Arbeit dem Vertrauen auf ungeprüfte Informationen gekommen?
  • Schreiben Sie eine kurze Reflexion (150 Wörter) über Ihre drei wichtigsten Erkenntnisse und eine Handlungsanweisung für die nächsten 30 Tage.

Rollensimulation

Eine immersive Rollenspielübung, die die Teilnehmer am Tag der Begründungsanhörung in den Gerichtssaal versetzt.

Simulationsszenario

Es ist der 22. Juni 2023. Richter P. Kevin Castel hat eine Begründungsanhörung im Gerichtssaal des Daniel Patrick Moynihan United States Courthouse in Lower Manhattan einberufen. Steven Schwartz, Peter LoDuca, der Gegenanwalt und Roberto Mata sind alle anwesend. Der Rechtsethik-Berater wurde vom Gericht als Amicus-Beobachter eingeladen. Der Richter hat die Eingaben gelesen. Der Gerichtssaal ist voller Journalisten. Alle wissen, dass das, was heute in diesem Raum geschieht, durch den gesamten Berufsstand nachhallen wird.

Regeln

Gesamtdauer

90 Minuten

Kommunikation

Alle Erklärungen werden über den Richter geleitet; keine Seitengespräche, sofern der Richter sie nicht gestattet

Entscheidungsmechanismus

Der Richter erlässt am Ende ein Urteil; alle Parteien können Schlusserklärungen abgeben

Phasen

Phase 1

Vorbereitung (20 Minuten)

Jeder Teilnehmer studiert seine Rollenkarte und exklusiven Informationen. Bereiten Sie Ihre Position vor, antizipieren Sie Fragen und identifizieren Sie Ihre Kernargumente. Schwartz und LoDuca können sich kurz beraten. Der Richter prüft die Fallakte und bereitet Fragen vor.

Phase 2

Anhörungssimulation (45 Minuten)

Der Richter eröffnet das Verfahren und wendet sich an jede Partei. Schwartz und LoDuca erklären die Situation. Der Gegenanwalt stellt seine Position dar. Roberto Mata kann sich an das Gericht wenden. Der Ethik-Berater bietet eine Perspektive zu den Berufsstandards. Der Richter befragt alle Parteien.

Phase 3

Beratung & Urteil (25 Minuten)

Der Richter zieht sich kurz zur Beratung zurück (5 Minuten). Er kehrt zurück, um das Urteil zu verkünden und die Begründung zu erläutern. Alle Parteien können kurze Schlusserklärungen abgeben. Der Ethik-Berater gibt abschließende Beobachtungen zu den Auswirkungen für den Berufsstand ab.

Optionale Varianten

  • Was wäre, wenn Schwartz freiwillig offengelegt hätte? Spielen Sie das Szenario erneut durch unter der Annahme, dass Schwartz den Fehler selbst entdeckt und das Gericht sofort informiert hätte. Wie verändert sich die Anhörung? Wären Sanktionen trotzdem angemessen?
  • Was wäre, wenn der Mandant die Kanzlei verklagt? Führen Sie nach der Sanktionsanhörung eine zweite Simulation durch, in der Roberto Mata einen neuen Anwalt beauftragt hat und eine Anwaltshaftungsklage gegen Levidow, Levidow & Oberman verfolgt.
  • Was wäre, wenn dies in Ihrem Rechtsraum passiert wäre? Passen Sie das Szenario an Ihre lokalen Berufsordnungen und Gerichtsverfahren an. Wie würde das Ergebnis abweichen?

Nachbesprechung

Nutzen Sie nach der Simulation diese Fragen, um die Gruppendiskussion und individuelle Reflexion zu leiten.

Reflexion aus der Rolle

  • Wie hat es sich angefühlt, in Ihrer zugewiesenen Rolle zu sein? Welche Drücke und Einschränkungen haben Ihre Entscheidungen geprägt?
  • Welche Argumente der anderen Parteien fanden Sie am überzeugendsten und am wenigsten überzeugend?
  • Gab es einen Moment während der Simulation, in dem Sie sich wirklich hin- und hergerissen fühlten? Beschreiben Sie ihn.
  • Wenn Sie eine Sache ändern könnten, die Ihre Figur getan hat — was wäre es?

Aufdeckung der Informationsasymmetrie

  • Jede Rolle hatte exklusive Informationen. Teilen Sie Ihre jetzt mit der Gruppe. Wie hätte früheres Wissen darüber die Dynamik verändert?
  • Gab es Momente, in denen Sie vermuteten, dass eine andere Partei Informationen zurückhält? Lagen Sie richtig?
  • Wie hat die Informationsasymmetrie die Fairness und das Ergebnis der Anhörung beeinflusst?

Reflexion außerhalb der Rolle

  • Treten Sie aus Ihrer Rolle heraus. Stimmen Sie dem während der Simulation erlassenen Urteil zu? Warum oder warum nicht?
  • Vergleichen Sie das Ergebnis der Simulation mit dem tatsächlichen Gerichtsurteil. Was war ähnlich? Was war anders?
  • Welche ethischen Prinzipien standen in diesem Fall in Spannung? Gibt es eine klare "richtige Antwort"?
  • Hätten Sie Schwartz härter, milder oder genauso wie Richter Castel tatsächlich sanktioniert?

Bezug zur Realität

  • Hat Ihre Kanzlei oder Organisation derzeit eine KI-Nutzungsrichtlinie? Wenn ja — hätte sie diese Situation verhindert? Wenn nein — was sollte sie enthalten?
  • Haben Sie persönlich generative KI für berufliche Aufgaben genutzt? Hat diese Fallstudie verändert, wie Sie darüber denken?
  • Was ist die wichtigste systemische Veränderung, die zukünftige Mata-v.-Avianca-Situationen verhindern könnte?
  • Nennen Sie eine konkrete Maßnahme, die Sie innerhalb des nächsten Monats ergreifen werden, basierend auf dem, was Sie heute gelernt haben.

Referenzen & Quellen

Gerichtsdokumente

  • Mata v. Avianca, Inc., No. 22-cv-1461 (PKC) (S.D.N.Y. 2023) — Aktenzeichen und Verfahrensgeschichte
  • Verfügung zur Begründungspflicht vom 11. April 2023 — Richter Castels ursprüngliche Anordnung zur Erklärung der zitierten Rechtsgrundlagen
  • Eidesstattliche Versicherung von Steven A. Schwartz vom 25. Mai 2023 — Beschworener Bericht des Anwalts über die ChatGPT-Nutzung
  • Sanktionsbeschluss und Verfügung vom 22. Juni 2023 — Richter Castels veröffentlichter Beschluss zur Verhängung von Sanktionen

Berufsstandards

  • ABA Model Rules of Professional Conduct, Rule 1.1 (Kompetenz) — Kommentar 8 zur Technologiekompetenz
  • ABA Model Rules of Professional Conduct, Rule 3.3 (Wahrheitspflicht gegenüber dem Gericht)
  • New York Rules of Professional Conduct, Rules 1.1 und 3.3
  • Federal Rules of Civil Procedure, Rule 11 — Erklärungen gegenüber dem Gericht

Analyse & Kommentar

  • Thomson Reuters, "ChatGPT and Caselaw: Mata v. Avianca and the Perils of AI-Generated Legal Research" (2023)
  • American Bar Association, "Lawyer Who Used ChatGPT Gets Sanctioned — And What It Means for the Profession" (2023)
  • Reuters Legal News, "New York Lawyers Sanctioned for Using Fake ChatGPT Cases in Legal Brief" (Juni 2023)
  • Legal Ethics Forum, "The Mata v. Avianca Problem: Hallucination, Verification, and the Duty of Competence" (2023)
  • Artificial Lawyer, "Post-Mata: How Courts Are Responding to AI in Legal Filings" (2023-2024)

Bereit, diesen Fall zu erleben?

Diese Fallstudie ist für moderierte Durchführung im Rahmen des Lawra Learning Program konzipiert. Fordern Sie ein personalisiertes Programm an, das Rollensimulation mit fachkundiger Moderation umfasst.

Alle Fallstudien anzeigen

Kommentare

Kommentare werden geladen...

0/2000 Kommentare werden vor der Veröffentlichung moderiert.