← Zurück zu Allen Fällen
Abgeschlossen Ethics

Mata v. Avianca, Inc.

U.S. District Court, Southern District of New York · Vereinigte Staaten · 2023-06-22 · 22-cv-1461 (PKC)

Anwalt Steven Schwartz verwendete ChatGPT zur Erstellung eines Schriftsatzes und reichte diesen mit sechs vollständig erfundenen Rechtsprechungszitaten ein. Das Gericht verhängte Sanktionen gegen Schwartz und seinen Kollegen wegen Einreichung gefälschter Präzedenzfälle ohne Überprüfung.

Tenor

Das Gericht verhängte Sanktionen in Höhe von 5.000 US-Dollar gegen Schwartz und seinen Mitanwalt Peter LoDuca, da sie in böser Absicht gehandelt hatten, indem sie nicht existierende, von KI generierte Gerichtsentscheidungen einreichten und diese trotz mehrfacher Gelegenheit nicht überprüften.

Argumente dafür / Positive Auswirkungen

  • Schuf einen klaren Präzedenzfall, dass KI-generierte Rechtsrecherche vor der Einreichung überprüft werden muss
  • Machte den Anwaltsberuf auf die Risiken von KI-Halluzinationen aufmerksam
  • Veranlasste Anwaltskammern weltweit, KI-Leitlinien herauszugeben
  • Relativ milde Sanktionen signalisieren, dass Gerichte aufklären, nicht Karrieren zerstören wollen

Argumente dagegen / Bedenken

  • Sanktionen waren wohl zu mild, um künftigen KI-Missbrauch wirklich abzuschrecken
  • Das Urteil konzentrierte sich auf anwaltliche Fahrlässigkeit, statt spezifische KI-Regeln zu schaffen
  • Kann einen abschreckenden Effekt erzeugen, der den nützlichen KI-Einsatz in der Rechtspraxis entmutigt
  • Behandelte nicht die grundlegende Frage der Zuverlässigkeitsstandards für KI-Werkzeuge

Unsere Einschätzungen

Lawra Lawra (Die Moderate)
Dieser Fall ist der Weckruf, den jeder Anwalt brauchte. Er bedeutet nicht, dass Sie keine KI verwenden sollten — er bedeutet, dass Sie alles, was KI produziert, überprüfen müssen, genau wie Sie es bei der ersten Notiz eines jungen Referendars tun würden. Die Sorgfaltspflicht hat sich nicht geändert; die Werkzeuge haben sich geändert.
Lawrena Lawrena (Die Skeptikerin)
Genau davor habe ich beim Einsatz von KI in der Rechtspraxis gewarnt. Ein Anwalt vertraute einer Maschine mehr als seiner grundlegenden Berufspflicht. Sechs gefälschte Fälle. Vor einem Bundesgericht. Wenn Sie das nicht davon überzeugt, dass KI im Gerichtssaal eine Gefahr ist, wird es nichts tun.
Lawrelai Lawrelai (Die Enthusiastin)
Schauen Sie, ein Anwalt hat ein Werkzeug falsch eingesetzt und wurde erwischt. Das ist keine Anklage gegen KI — es ist eine Anklage gegen das Überspringen der Überprüfung. Piloten hören nicht auf, den Autopiloten zu nutzen, weil jemand abgestürzt ist; sie trainieren besser. Dieser Fall sollte uns zu besseren KI-Arbeitsabläufen drängen, nicht weg von KI.
Carlos Miranda Levy Carlos Miranda Levy (Der Kurator)
Dies ist kein KI-Versagen — es ist ein menschliches Prozessversagen. Die wahre Lektion lautet nicht 'Nutzen Sie keine KI.' Sie lautet 'Bauen Sie Überprüfung in Ihren Arbeitsablauf ein.' KI erweitert, was wir tun können; sie ersetzt nicht die Notwendigkeit, kritisch zu denken. Der Anwaltsberuf sollte darauf reagieren, indem er KI-Kompetenz in die Ausbildung integriert, nicht indem er vor Innovation zurückweicht. Die Kanzleien, die jetzt strukturierte KI-Arbeitsabläufe aufbauen, werden diejenigen übertreffen, die die Werkzeuge aus Angst verbieten.

Warum dieser Fall wichtig ist

Mata v. Avianca ist der Fall, der tausend Fortbildungskurse auslöste. Als Anwalt Steven Schwartz ChatGPT bat, stützende Rechtsprechung für eine Personenschadensklage gegen Avianca Airlines zu finden, produzierte die KI selbstbewusst sechs Gerichtsentscheidungen — von denen keine existierte. Schwartz reichte die erfundenen Zitate in einem Bundesgerichtsschriftsatz ein, ohne sie zu überprüfen.

Was geschah

Richter P. Kevin Castel entdeckte die nicht existierenden Fälle und ordnete an, dass Schwartz und Mitanwalt Peter LoDuca Stellung nehmen sollten. Als sie konfrontiert wurden, stand Schwartz zunächst zu den Zitaten und gab dann zu, ChatGPT verwendet zu haben und „nicht gedacht zu haben, dass es Fälle erfinden könnte.” Das Gericht fand diese Erklärung nicht überzeugend und verhängte Sanktionen.

Die breitere Wirkung

Dieser Fall allein beschleunigte die Auseinandersetzung des Anwaltsberufs mit generativer KI. Innerhalb weniger Monate nach dem Urteil erließen Dutzende von Gerichten ständige Anordnungen, die Anwälte verpflichteten, die Nutzung von KI offenzulegen. Anwaltskammern von Texas bis zur Europäischen Union veröffentlichten Ethikgutachten. Der Fall wurde zum Synonym für „Überprüfen Sie Ihre KI-Ergebnisse.”

Quellen

Rechtsrahmen erkunden

Fälle entstehen nicht im luftleeren Raum. Erkunden Sie die regulatorischen Rahmen, die das KI-Recht weltweit prägen — vom EU AI Act bis zu aufkommender Gesetzgebung in Lateinamerika.

Bereit für strukturiertes Lernen? Das Lernprogramm erkunden →

Kommentare

Kommentare werden geladen...

0/2000 Kommentare werden vor der Veröffentlichung moderiert.