Entdecken

Was Sie vermeiden sollten

Die Gefahrenzone. Dies sind die Fehler, die Anwälte bereits ihren Ruf, ihr Geld und ihre Zulassung gekostet haben. Jeder einzelne ist durch reale Fälle, reale Konsequenzen und reale Lehren belegt. Lernen Sie aus den Fehlern anderer, damit Sie nicht aus Ihren eigenen lernen müssen.

Lawra
Aus den Fehlern anderer zu lernen ist weitaus günstiger als eigene zu machen. Und im Recht haben KI-Fehler ihren Preis.

Warum das wichtig ist: KI-Tools sind leistungsstark, aber nicht perfekt. Die Anwaltschaft hat bereits Sanktionen, Suspendierungen und Haftungsklagen erlebt, die aus unsachgemäßer KI-Nutzung resultieren. Der rote Faden in jedem Fall ist derselbe — der Anwalt behandelte die KI-Ausgabe als fertiges Produkt statt als Ausgangspunkt.

1

Reichen Sie keine KI-Ausgabe ein, ohne jedes Wort gelesen zu haben

Anwälte sind persönlich verantwortlich für jedes Wort, das sie bei Gericht einreichen. KI-generierter Text kann erfundene Zitate, halluzinierte Rechtsprechung und selbstbewusst klingenden Unsinn enthalten.

Risiko

Berufsrechtliche Sanktionen, Haftung für Kunstfehler, Klageabweisung, richterliche Überweisung an Disziplinarorgane

Praxisbeispiel

In Mata v. Avianca, Inc. (S.D.N.Y. 2023) reichten die Anwälte Steven Schwartz und Peter LoDuca einen Schriftsatz mit sechs vollständig erfundenen Rechtsprechungszitaten ein, die von ChatGPT generiert wurden. Als die Gegenseite und Richter P. Kevin Castel die Fälle nicht finden konnten, verdoppelten die Anwälte ihren Einsatz -- sie baten ChatGPT zu bestätigen, dass die Fälle existieren. Richter Castel verhängte eine Geldstrafe von 5.000 $ gegen jeden Anwalt, da sie bösgläubig gehandelt hatten, indem sie die KI-Ausgabe nicht überprüften. Der Fall wurde zu einem weltweiten Warnbeispiel.

Abhilfe

Lesen Sie jedes Wort der KI-generierten Ausgabe. Überprüfen Sie jedes Zitat anhand von Primärquellen -- Westlaw, LexisNexis oder offiziellen Gerichtsdatenbanken. Behandeln Sie KI-Ausgaben als ungeprüften Erstentwurf eines unzuverlässigen Praktikanten, nicht als fertiges Arbeitsprodukt.

Ich verstehe das schon -- der ganze Sinn von KI ist, Zeit zu sparen. Aber 'Zeit sparen', indem man erfundene Fälle einreicht, ist wie 'Geld sparen', indem man seine Berufshaftpflichtversicherung nicht zahlt. Sie würden keinen Schriftsatz einreichen, den Ihr Referendar geschrieben hat, ohne ihn zu lesen. Sie sollten definitiv keinen einreichen, den Ihr Roboter geschrieben hat, ohne ihn zu lesen. Die KI hat keine Zulassung, die sie verlieren kann. Sie schon.

-- Lawra
2

Fügen Sie keine vertraulichen Mandanteninformationen in öffentliche KI-Werkzeuge ein

Verbraucher-KI-Werkzeuge wie ChatGPT, Gemini und Claude (kostenlose Stufen) können Ihre Eingaben für das Modelltraining verwenden. Das Einfügen von Mandantendaten in diese Werkzeuge ist eine Vertraulichkeitsverletzung.

Risiko

Verletzung des anwaltlichen Vertrauensverhältnisses, Verletzung der Vertraulichkeitspflicht, Haftung für Kunstfehler, regulatorische Sanktionen, Zerstörung des Mandantenvertrauens

Praxisbeispiel

Im April 2023 erlitt Samsung Electronics innerhalb von nur 20 Tagen drei separate Datenlecks, als Ingenieure proprietären Quellcode, interne Besprechungsnotizen und Hardware-Testdaten in ChatGPT einfügten. Samsung verbot daraufhin allen Mitarbeitern die Nutzung generativer KI-Werkzeuge. Obwohl dies ein Unternehmensvorfall war, illustriert er genau das Risiko, dem Anwälte gegenüberstehen: Sobald Informationen in ein öffentliches KI-System gelangen, verlieren Sie jede Kontrolle darüber. Im juristischen Kontext gab die New York City Bar Association Formal Opinion 2023-7 heraus, die Anwälte spezifisch vor diesem Risiko warnt.

Abhilfe

Die sicherste Option: Installieren Sie eine lokale KI auf Ihrem eigenen Computer -- Ihre Daten verlassen nie Ihren Rechner (siehe unseren Leitfaden für lokale KI). Alternativ verwenden Sie Enterprise-KI-Werkzeuge mit vertraglichen Datenschutzgarantien (z.B. Azure OpenAI, ChatGPT Enterprise, Claude for Business). Fügen Sie niemals identifizierbare Mandanteninformationen in kostenlose Verbraucher-KI-Werkzeuge ein. Anonymisieren und schwärzen Sie vor jeder mandantenbezogenen KI-Nutzung. Etablieren Sie kanzleiweite Protokolle für die KI-Datenverarbeitung.

Die Sache mit dem anwaltlichen Vertrauensverhältnis ist folgende: Es ist nicht nur eine Regel, es ist das Fundament des gesamten Rechtssystems. Ihr Mandant hat Ihnen seine Geheimnisse anvertraut, weil er Ihnen vertraut. Diese Geheimnisse in ChatGPT einzufügen ist, als würden Sie seine Akte offen auf einer Parkbank liegen lassen und hoffen, dass niemand sie liest. Nur schlimmer -- denn zumindest lernt eine Parkbank nicht aus dem, was auf ihr liegen gelassen wird.

-- Lawra
3

Gehen Sie nicht davon aus, dass KI Ihre Jurisdiktion versteht

KI-Modelle werden mit massiven Datensätzen trainiert, die Rechtssysteme aus mehreren Ländern und Jurisdiktionen vermischen. Sie verwechseln routinemäßig Common Law mit Zivilrecht, Bundes- mit Staatsregeln und Gesetze eines Landes mit denen eines anderen.

Risiko

Einreichung auf Basis des Rechts der falschen Jurisdiktion, falsche Rechtsberatung, Haftung für Kunstfehler, Glaubwürdigkeitsverlust bei Gerichten

Praxisbeispiel

Bei einem 2023 von Rechtstechnologieforschern dokumentierten Vorfall erhielt ein US-Anwalt, der ChatGPT für Vertragsrechtsrecherche nutzte, Ratschläge, die nahtlos Grundsätze des Uniform Commercial Code (USA), des Sale of Goods Act 1979 (England und Wales) und des UN-Übereinkommens über Verträge über den internationalen Warenkauf (CISG) vermischten -- ohne jeden Hinweis darauf, dass drei verschiedene Rechtsordnungen gemischt wurden. Der Anwalt hätte beinahe ausländische Rechtsstandards in eine rein innerstaatliche Vertragsstreitigkeit eingearbeitet. Separat reichte der Anwalt Zachariah C. Crabill in seinem Disziplinarverfahren 2023 in Colorado KI-generierte Anträge ein, die nicht existierende Fälle aus Colorado zitierten, konstruiert aus Mustern, die die KI über mehrere US-Jurisdiktionen hinweg aufgenommen hatte.

Abhilfe

Geben Sie in Ihren Prompts immer die genaue Jurisdiktion an -- Staat, Bundesgerichtsbezirk, Land und anwendbares Rechtsgebiet. Gleichen Sie jede KI-Ausgabe mit jurisdiktionsspezifischen Quellen ab. Vertrauen Sie niemals der impliziten Annahme einer KI darüber, welches Recht anwendbar ist.

KI-Modelle sind wie dieser weitgereiste Freund, der überall war, sich aber an überall als denselben Ort erinnert. 'Oh, Sie sind in Texas? Lassen Sie mich Ihnen von diesem großartigen Präzedenzfall erzählen von... *schaut in Notizen*... dem High Court of England and Wales.' Jurisdiktionspräzision ist kein Nice-to-have -- sie trennt Rechtsberatung von Rechtsfiktion.

-- Lawra
5

Verheimlichen Sie Ihre KI-Nutzung nicht vor Gerichten, die Offenlegung verlangen

Eine wachsende Zahl von Gerichten verlangt mittlerweile von Anwälten, die Verwendung von KI-Werkzeugen bei der Erstellung von Einreichungen offenzulegen. Die unterlassene Offenlegung, wenn sie verlangt wird, führt direkt zu Sanktionen und Glaubwürdigkeitsverlust.

Risiko

Sanktionen wegen Nichtbeachtung gerichtlicher Anordnungen, Verlust richterlichen Vertrauens, Disziplinarverfahren, fallverändernde Konsequenzen

Praxisbeispiel

Im Juni 2023 erließ Richter Brantley Starr am U.S. District Court for the Northern District of Texas eine der ersten Verfügungen, die alle Anwälte verpflichtet zu bestätigen, dass KI-generierter Text in Einreichungen von einem Menschen überprüft wurde. Anfang 2024 erließ der Fifth Circuit eine bezirksweite Regel, die KI-Offenlegungsbestätigungen vorschreibt. Der Eleventh Circuit, mehrere US-Bezirksgerichte und Gerichte in Großbritannien, Kanada und Australien folgten mit ähnlichen Anforderungen. Im Februar 2024 sanktionierte ein Bundesrichter im Eastern District of Pennsylvania einen Anwalt wegen unterlassener KI-Offenlegung nach Erlass einer entsprechenden lokalen Regel.

Abhilfe

Überprüfen Sie vor jeder Einreichung die aktuellen Verfügungen und lokalen Regeln jeder Jurisdiktion zur KI-Offenlegung. Entscheiden Sie sich im Zweifelsfall für Transparenz -- auch wenn nicht ausdrücklich vorgeschrieben, schafft freiwillige Offenlegung Vertrauen. Entwickeln Sie eine Standard-KI-Offenlegungsbestätigung für Ihre Kanzlei.

Die Gerichte bitten Sie nicht, zu beichten. Sie bitten Sie, ein Profi zu sein. Offenlegungsregeln existieren, weil Richter es leid waren, 'Rate mal, welche Zitate echt sind' zu spielen. Wenn es Ihnen peinlich ist, einem Richter zu sagen, dass Sie KI verwendet haben, ist das wahrscheinlich ein Zeichen, dass Sie sie sorgfältiger hätten nutzen sollen. Transparenz ist keine Schwäche -- es ist ein Signal, dass Sie Verantwortung für Ihr Arbeitsprodukt übernehmen.

-- Lawra
6

Behandeln Sie KI-Ausgaben nicht als Rechtsrecherche

KI generiert plausibel klingenden juristischen Text, keine verifizierte Rechtsanalyse. Sie erzeugt Text, der wie Recherche aussieht, aber tatsächlich nicht recherchiert wurde. KI-Ausgaben als Ersatz für ordnungsgemäße Rechtsrecherche zu behandeln ist eine professionelle Gefahr.

Risiko

Verlass auf erfundene Fundstellen, unvollständige Rechtsanalyse, Übersehen maßgeblicher Rechtsprechung, Haftungsrisiko, Sanktionen

Praxisbeispiel

Eine Stanford-Studie von 2024 unter Leitung der Forscher Varun Magesh und Daniel E. Ho testete die Rechtsrecherchefähigkeiten großer KI-Modelle (GPT-4, Claude, Llama 2) und stellte fest, dass sie in 69% bis 88% der Fälle Rechtsprechungszitate halluzinierten, wenn sie direkte Rechtsrecherchefragen gestellt bekamen. Selbst wenn Zitate echt waren, gaben die Modelle häufig Leitsätze falsch wieder, wendeten falsche Standards an oder ließen maßgebliche gegenteilige Rechtsprechung aus. Die Studie 'Hallucinating Law' zeigte, dass kein aktuelles KI-Modell als eigenständiges Rechtsrecherchewerkzeug zuverlässig ist.

Abhilfe

Nutzen Sie KI, um Recherchehypothesen zu generieren, potenzielle Suchbegriffe zu identifizieren und vorläufige Gliederungen zu erstellen. Führen Sie dann tatsächliche Rechtsrecherche in maßgeblichen Datenbanken durch -- Westlaw, LexisNexis, Fastcase, Google Scholar oder offizielle Gerichts- und Gesetzgebungsdatenbanken. KI ist der Brainstorming-Partner; Westlaw ist die Wahrheitsquelle.

Sie würden Wikipedia nicht in einem Schriftsatz zitieren. Warum also etwas zitieren, das im Grunde Wikipedia im Anwaltsgewand ist? KI recherchiert nicht. Sie sagt Text vorher. Das sind grundlegend verschiedene Aktivitäten. Nutzen Sie sie, um Ihre Recherche anzukurbeln, absolut -- aber in dem Moment, in dem Sie anfangen, 'ChatGPT hat gesagt' als 'das Gesetz sagt' zu behandeln, haben Sie aufgehört, Anwalt zu sein, und angefangen, eine sehr teure Autovervollständigung zu sein.

-- Lawra
7

Setzen Sie KI nicht für Aufgaben ein, die emotionale Intelligenz erfordern

Mandantenberatung, sensible Verhandlungen, Zeugenvorbereitung und das Überbringen schwieriger Nachrichten erfordern menschliche Empathie, emotionale Einfühlung und zwischenmenschliches Urteilsvermögen, die KI grundlegend nicht bieten kann.

Risiko

Geschädigte Mandantenbeziehungen, unzureichende Vertretung, ethische Verstöße, Nichterfüllung treuhänderischer Pflichten, Schaden für vulnerable Personen

Praxisbeispiel

2023 ersetzte die National Eating Disorders Association (NEDA) ihre menschlichen Beratungshotline-Mitarbeiter durch einen KI-Chatbot namens 'Tessa.' Innerhalb von Tagen berichteten Nutzer, dass Tessa Ratschläge gab, die Essstörungen verschlimmern könnten -- einschließlich der Empfehlung von Kalorienzählen und Gewichtsverlust an Menschen, die Hilfe bei Anorexie suchten. NEDA schaltete Tessa innerhalb einer Woche ab. Obwohl dies kein Rechtsfall war, illustriert es perfekt, was passiert, wenn KI in Kontexten eingesetzt wird, die emotionale Sensibilität und differenziertes menschliches Verständnis erfordern. Im juristischen Kontext haben mehrere Anwaltskammern gewarnt, dass KI das Urteilsvermögen, das für die Mandantenberatung erforderlich ist, nicht ersetzen kann, insbesondere in sensiblen Rechtsgebieten wie Familienrecht, Strafverteidigung und Einwanderungsrecht.

Abhilfe

Reservieren Sie Aufgaben, die Empathie, emotionale Intelligenz, Lesen zwischen den Zeilen und menschliche Verbindung erfordern, für menschliche Fachleute. Nutzen Sie KI für Hintergrundrecherche und Entwürfe, die diese Interaktionen unterstützen, aber niemals als Ersatz für die menschliche Interaktion selbst.

Ihr Mandant braucht keine statistisch wahrscheinliche Antwort auf seinen Sorgerechtsstreit. Er braucht jemanden, der ihm in die Augen schaut und sagt: 'Ich verstehe, was Sie durchmachen, und so kämpfen wir für Sie.' KI kann den Antrag entwerfen, aber sie kann den Raum nicht halten. Wenn Sie ChatGPT verwenden, um die E-Mail zu schreiben, die einem Mandanten mitteilt, dass seine Berufung abgelehnt wurde, haben Sie grundlegend missverstanden, was Ihr Mandant in diesem Moment von Ihnen braucht.

-- Lawra
8

Ignorieren Sie nicht die KI-Leitlinien Ihrer Anwaltskammer

Anwaltskammern in den Vereinigten Staaten und international geben KI-spezifische Leitlinien in beschleunigtem Tempo heraus. Dies sind keine Empfehlungen -- es sind Auslegungen bestehender ethischer Pflichten mit realen Konsequenzen.

Risiko

Disziplinarmaßnahmen, Suspendierung, Berufsverbot, Haftungsfeststellungen, Verlust der beruflichen Stellung

Praxisbeispiel

Im Januar 2024 gab der Florida Bar Board of Governors detaillierte Leitlinien zur KI-Nutzung heraus, gefolgt von der California State Bar, der New York State Bar Association und zahlreichen anderen Jurisdiktionen. Die ABA gab im Juli 2024 Formal Opinion 512 heraus, die Leitlinien auf nationaler Ebene bietet. Anwälte, die frühe Leitlinien ignorierten, erlitten Konsequenzen: Im Disziplinarverfahren Crabill (Colorado, 2024) stellte das Tribunal ausdrücklich fest, dass bestehende ethische Regeln -- auch ohne KI-spezifische Leitlinien -- Pflichten begründeten, die der Anwalt nicht erfüllte. Die Botschaft ist klar: 'Ich wusste nicht, dass es KI-Regeln gibt' ist keine Verteidigung, wenn bestehende Kompetenz- und Aufsichtsregeln bereits gelten.

Abhilfe

Identifizieren und lesen Sie sofort die KI-Leitlinien Ihrer Anwaltskammer. Abonnieren Sie die Ethik-Updates Ihrer Kammer. Wenn Ihre Jurisdiktion noch keine spezifischen KI-Leitlinien herausgegeben hat, wenden Sie bestehende ethische Regeln an -- Kompetenz (Rule 1.1), Vertraulichkeit (Rule 1.6), Aufsicht (Rules 5.1 und 5.3) und Aufrichtigkeit (Rule 3.3) -- auf Ihre KI-Nutzung. Dokumentieren Sie Ihre Compliance.

Ich weiß, ich weiß -- 'Lesen Sie die Leitlinien der Anwaltskammer' ist die berufsständische Version von 'Essen Sie Ihr Gemüse.' Aber die Sache ist die: Diese Leitlinien sind Ihr Schild. Wenn etwas schiefgeht -- und irgendwann wird es das für jemanden -- ist die erste Frage der Disziplinarkommission: 'Haben Sie die geltenden Leitlinien befolgt?' Wenn Ihre Antwort lautet 'Ich wusste nicht, dass es welche gibt', haben Sie bereits verloren. Und ehrlich gesagt sind die meisten dieser Leitlinien tatsächlich gut geschrieben. Die Kammern versuchen zu helfen. Lassen Sie es zu.

-- Lawra
9

Lassen Sie KI nicht Ihren gesamten Schriftsatz schreiben

KI-generierte Schriftsätze verfügen nicht über die strategische Vision, die überzeugende Stimme und die differenzierte Argumentation, die effektive anwaltliche Interessenvertretung auszeichnen. Ein vollständig von KI geschriebener Schriftsatz ist ein generisches Dokument, das den Interessen keines bestimmten Mandanten dient.

Risiko

Schwache Interessenvertretung, generische Argumente, die nicht überzeugen, verpasste strategische Chancen, Verlust der professionellen Stimme und Glaubwürdigkeit des Anwalts

Praxisbeispiel

In Ex parte Allen Michael Lee (Texas Court of Criminal Appeals, 2024) wurde eine Habeas-Corpus-Petition als wahrscheinlich KI-generiert markiert, basierend auf ihrer generischen Sprache, ungewöhnlichen Formatierungsmustern und Argumenten, die nicht auf die spezifischen Fakten des Falls eingingen. Das Gericht bemerkte das Fehlen fallspezifischer Analyse und die Abhängigkeit von verallgemeinerten Rechtssätzen, die auf praktisch jeden Fall hätten zutreffen können. Obwohl die Petition nicht allein wegen des Verdachts auf KI-Urheberschaft abgelehnt wurde, zeigt die gerichtliche Prüfung, wie KI-generierte Schriftsätze die Glaubwürdigkeit untergraben können. Eine Analyse KI-generierten Rechtstexts durch Rechtsschreibexperten der Harvard Law School aus 2024 ergab, dass KI zwar grammatikalisch korrekten und strukturell soliden Rechtstext produzieren kann, aber konsistent dabei versagte, die Art strategischer, überzeugender Argumentation zu entwickeln, die Fälle gewinnt.

Abhilfe

Nutzen Sie KI für Recherche, Gliederung und die Erstellung von Entwurfsabschnitten. Schreiben Sie dann umfassend um -- fügen Sie Ihre strategische Vision, Ihre Kenntnis des Richters, Ihr Verständnis der einzigartigen Fallfakten, Ihre überzeugende Stimme und Ihr professionelles Urteil darüber hinzu, welche Argumente betont, minimiert oder ganz weggelassen werden sollten.

Hier ein Geheimnis: Richter merken es. Sie lesen seit Jahren Schriftsätze, und ein KI-generierter Schriftsatz liest sich wie ein Wikipedia-Artikel im juristischen Kostüm -- technisch korrekt, umfassend mittelmäßig und völlig frei von dem strategischen Funken, der einen Schriftsatz tatsächlich überzeugend macht. Ihr Mandant hat nicht Wikipedia beauftragt. Er hat Sie beauftragt. Nutzen Sie KI für das Gerüst, dann bauen Sie etwas, das nur Sie hätten bauen können.

-- Lawra
10

Gehen Sie nicht davon aus, dass heutige Grenzen dauerhaft sind

KI-Fähigkeiten entwickeln sich in exponentiellem Tempo. Was KI heute nicht kann, kann sie morgen möglicherweise kompetent. Anwälte, die KI aufgrund ihrer aktuellen Grenzen abtun, riskieren, von schnellem Fortschritt überrumpelt zu werden.

Risiko

Berufliche Obsoleszenz, Wettbewerbsnachteil, mangelnde Anpassung der Praxis an sich entwickelnde Fähigkeiten, Unfähigkeit, Mandanten effektiv zu betreuen, während sich der Berufsstand transformiert

Praxisbeispiel

2022 taten juristische Fachleute KI weithin als unfähig ab, das Anwaltsexamen zu bestehen. 2023 bestand GPT-4 das Uniform Bar Examination und erzielte etwa das 90. Perzentil. 2024 begannen spezialisierte juristische KI-Modelle, junge Anwälte bei bestimmten Aufgaben wie Vertragsanalyse und Rechtsrecherche zu übertreffen, wie Studien von LegalBench und anderen zeigten. Thomson Reuters berichtete, dass CoCounsel (sein GPT-4-gestütztes juristisches KI-Werkzeug) bei der Dokumentenprüfung Genauigkeitsraten erzielte, die mit erfahrenen Anwälten vergleichbar waren. Das Tempo des Wandels hat Expertenvorhersagen konsistent übertroffen, wobei Fähigkeiten Jahre früher als geplant eintrafen.

Abhilfe

Bleiben Sie über KI-Entwicklungen aus vertrauenswürdigen Quellen informiert. Bewerten Sie Ihre KI-Fähigkeiten und -Workflows vierteljährlich neu. Bauen Sie Anpassungsfähigkeit in Ihre Praxis ein -- behandeln Sie KI-Kompetenz als eine sich entwickelnde Fähigkeit, nicht als einmaliges Lernereignis. Investieren Sie in kontinuierliche Weiterbildung und Experimentieren.

2020 war die 'kluge' Einschätzung, dass KI juristische Nuancen nicht beherrschen kann. Bis 2023 bestand sie das Anwaltsexamen. Wenn Sie Ihre Karrierestrategie auf der Annahme aufbauen, dass KI X nicht kann, sollten Sie einen Plan für den Tag haben, an dem sie es kann. Ich sage nicht, dass KI Anwälte ersetzen wird -- das glaube ich aufrichtig nicht. Aber sie wird mit Sicherheit Anwälte ersetzen, die sich weigern, sie zu verstehen. Die Anwälte, die erfolgreich sein werden, sind diejenigen, die aufgehört haben zu fragen 'Kann KI das?' und angefangen haben zu fragen 'Wie kann ich das mit KI besser machen?'

-- Lawra

Jetzt lernen, was richtig ist

Zu wissen, was zu vermeiden ist, ist essenziell — aber nur die halbe Wahrheit. Lernen Sie die Best Practices, die Ihnen helfen, KI effektiv, ethisch und selbstbewusst einzusetzen.

Bereit für strukturiertes Lernen? Das Lernprogramm erkunden →

Kommentare

Kommentare werden geladen...

0/2000 Kommentare werden vor der Veröffentlichung moderiert.