Im Mai 2026 wurde Mike — eine Open-Source-Legal-AI-Plattform — auf Hacker News mit einem bewusst spartanischen Pitch lanciert: "Funktionsparität. Nullkosten. Self-hostable." Der Quellcode erschien auf GitHub, die Kommentare brannten auf, und innerhalb von Stunden wurden Dutzende von Forks erstellt. Mike ist real. Es tut, was sein README behauptet. Aber Mike ist nicht die Geschichte. Mike ist das Signal, dass sich die Geschichte verändert hat.
Ein struktureller Wandel, kein einzelnes Produkt
Zwei Jahre lang war die Legal-AI-Diskussion in Kanzlei-Managementausschüssen eine binäre: "Schließen wir einen Vertrag mit [Anbieter X]?" Das Framing setzte voraus, dass Legal-AI in Produktionsqualität venture-finanzierte Unternehmenssoftware mit spezialisierter Infrastruktur erfordert. Dieses Framing war schon immer teilweise falsch, aber bis 2026 erforderten die Open-Source-Alternativen erheblichen Engineering-Aufwand — Chunking-Pipelines, Vektordatenbanken, Zitierparser, Prompt-Bibliotheken, rollenbasierte Zugriffskontrollen, Audit-Protokolle. Wenige Kanzleien hatten den Appetit dafür.
Mike — zusammen mit einem stillen, aber rasch reifenden Ökosystem komplementärer Open-Source-Komponenten — beseitigt diese Engineering-Steuer. Der vollständige Stack existiert jetzt. Andere Zutaten einer privaten Legal-AI-Bereitstellung sind parallel gereift:
- Open-Weight-Modellfamilien, die mit der kommerziellen Spitze konkurrieren — Llama 4, Mistral Large, Qwen, DeepSeek, Gemma — ausführbar im eigenen GPU-Cluster der Kanzlei oder über private Endpunkte
- Private Modell-Hosting-Anbieter mit vertraglichen Zusagen gegen Modelltraining (Anthropic und OpenAI bieten nun beide Enterprise-Stufen mit vertraglichem Training-Opt-out und dedizierter Kapazität an)
- Dokumentenaufnahme- und Zitier-Tools, verpackt als wiederverwendbare Open-Source-Bibliotheken
- Allgemeine private KI-Oberflächen wie Open WebUI, die die UX-Muster etabliert haben, die Mike für die Rechtsdomäne verfeinert
Zusammengenommen ist das, was 2024 ein individuelles Engineering-Projekt war, 2026 eine Konfigurationsübung.
Was Mike richtig macht
Bei der Prüfung von Mikes tatsächlichem Funktionsumfang — nicht das Marketing, die laufende Software — verdienen drei Designentscheidungen die Aufmerksamkeit jeder Kanzlei, die eine private Bereitstellung evaluiert:
Wortlaut-Zitate. Jede Antwort ist an eine spezifische Seite und ein spezifisches Zitat in einem bestimmten Dokument geknüpft. Das ist kein Komfortmerkmal; es ist die einzige Architektur, die den Standard der Verteidigbarkeit bei Berufshaftung erfüllt. Jedes Tool, das dem Modell erlaubt, ohne nachvollziehbare Quellenangabe zu paraphrasieren oder zusammenzufassen, ist für echte Rechtsarbeit ungeeignet.
Mandatsbezogene Projekte. Die Organisationseinheit ist das Mandat, nicht das Nutzerkonto. Dokumente, Gespräche, Workflows und Zugriff entstehen und enden gemeinsam mit dem Engagement. Das spiegelt wider, wie Kanzleien tatsächlich über Informationsbarrieren nachdenken.
Wiederverwendbare Workflows als Objekte erster Klasse. Das Muster "Prompt als Workflow speichern, den Juniorpartner mit einem Klick ausführen können" trennt einen Chatbot von einer Produktivitätsplattform. Mikes Implementierung hier ist konzeptionell klar.
Das sind Best Practices, keine Mike-exklusiven Merkmale. Jede private Legal-AI-Bereitstellung 2026 sollte daran gemessen werden.
Was Mike nicht löst
Die Lektüre des Mike-Quellcodes offenbart einen bewussten Umfang. Mike ist eine Plattform, kein schlüsselfertiges Produkt. Konkret:
- Es gibt keinen kommerziellen Support. Wenn der Assistent um 4 Uhr morgens am Tag vor einem Abschluss eine falsche Quellenangabe liefert, rufen Sie Ihr IT-Team an — es gibt keine Anbieter-Hotline.
- Es gibt keine SLA. Verfügbarkeit, Reaktionszeit, Sicherheits-Patches, Handhabung der Modellanbieter-Abkündigung — das alles liegt in der Verantwortung Ihrer Kanzlei.
- Die AGPL-3.0-Lizenz erfordert sorgfältige Behandlung. Jede Kanzlei, die Mike modifiziert und als Teil einer Dienstleistung für Dritte einsetzt, muss diese Modifikationen veröffentlichen. Für die meisten Kanzleien, die es intern nutzen, ist das kein Problem, erfordert aber eine rechtliche Prüfung.
- DMS-, Abrechnungs-, Interessenkonflikt- und Mandatsverwaltungsintegration ist Ihr Projekt. Mike stellt die Plattform bereit; Ihr Team schreibt die Konnektoren.
- Adoption ist nicht automatisch. Senior-Associates, die ein 200-seitiges Due-Diligence-Paket analysiert haben wollen, interessiert es nicht, dass die zugrundeliegende Technologie Open Source ist. Sie interessiert, ob sie dem Output vertrauen und ob er sich in ihren Workflow integriert. Das ist menschliche, keine technische Arbeit.
Das ist keine Kritik an Mike. Die Autoren des Projekts sind explizit: Es ist ein funktionierender Quellcode, kein verwalteter Service. Die Kritik, wenn es eine gibt, gilt dem Framing, dass "Open Source Anbietersoftware ersetzt" — denn für die meisten Kanzleien ist das, was sie tatsächlich kaufen, wenn sie Harvey oder Legora bezahlen, nicht die Software.
Was Kanzleien tatsächlich kaufen
Wenn eine Kanzlei einen sechsstelligen Jahresvertrag mit einem kommerziellen Legal-AI-Anbieter unterzeichnet, sieht die Wertaufteilung typischerweise so aus:
- 15 % — die Software-Plattform selbst
- 20 % — vom Anbieter absorbierte Modell-API-Kosten
- 25 % — Verfügbarkeit, Sicherheit, Compliance, Audit-Protokolle
- 25 % — Schulung, Change Management, Customer Success
- 15 % — Risikotransfer (wenn etwas schiefläuft, gibt es eine Gegenpartei)
Mike eliminiert die ersten 15 %. Das ist real, aber es ist auch die am einfachsten zu ersetzenden 15 %.
Die anderen 85 % — die Betriebsschicht, die menschliche Schicht, die Vertrauensschicht — sind der Bereich, in dem Kanzleien Schwierigkeiten haben. Und es ist der Bereich, in dem die Open-Source-Revolution nichts ersetzt. Sie verlagert lediglich die Kosten vom Anbieter zur Kanzlei.
Für Kanzleien mit tiefer interner IT-Kompetenz und echtem Willen, eine Produktions-AI-Plattform zu betreiben, ist diese Verlagerung befreiend. Für alle anderen schafft sie eine Chance, die von Partnern gefüllt werden kann — unabhängigen Integratoren mit der Legal-AI-Expertise, um eine private Plattform im Auftrag der Kanzlei bereitzustellen, anzupassen, zu schulen und zu warten.
Best Practices für private Legal-AI 2026
Unabhängig davon, welche Plattform eine Kanzlei wählt — Mike, ein individueller Aufbau oder eine verwaltete Alternative — sind dies die operativen Best Practices, die darüber entscheiden, ob eine Bereitstellung erfolgreich ist:
- Pflicht zur Quellenangabe. Keine Paraphrasierung ohne Wortlaut-Zitat zur Quelle. Die Mindestanforderung für Verteidigbarkeit bei Berufshaftung.
- Mandatsbezogene Informationsbarrieren. Dokumente und Gespräche aus einem Mandat fließen nie in Prompts für ein anderes ein, auch nicht innerhalb derselben Kanzlei.
- Prüfung der Modellanbieter. Lesen Sie die tatsächlichen Datenschutzbedingungen. "Kein Training" bedeutet in verschiedenen Verträgen unterschiedliche Dinge. Kleingedrucktes zu Protokollierung, Aufbewahrung und Incident Response zählt.
- Open-Weight-Modell-Option für sensible Mandate. Manche Mandate gehören auf lokale GPU-Infrastruktur ohne externe API-Aufrufe. Planen Sie die Architektur so, dass ein Teil der Arbeit auf lokale Inferenz geroutet werden kann.
- Workflow-Bibliothek als institutionelles Asset. Behandeln Sie die Prompt- und Workflow-Bibliothek der Kanzlei genauso wie die Präzedenzfalldatenbank — versioniert, kuratiert, zugeschrieben, geprüft. Die Prompts von Senior-Partnern sind geistiges Kapital.
- Audit-Protokolle als erstrangige Anforderung. Jeder Prompt, jede Ausgabe, jedes zitierte Dokument — protokolliert mit Nutzer, Mandat, Zeitstempel. Entdeckungsverfahren und Standesrechtsprüfungen pausieren nicht für Nachrüstungen.
- Output-Überprüfungsprotokolle. Definieren Sie, welche KI-Ausgaben eine menschliche Überprüfung auf welcher Senioritätsstufe erfordern. KI-verfasste Schriftsätze, die das Büro ohne Partner-Überprüfung verlassen, sind nicht akzeptabel.
- KI-Nutzungsoffenlegung gegenüber Mandanten. Zunehmend von Anwaltsverbänden verlangt und von anspruchsvollen Mandanten erwartet. Entwickeln Sie die Richtlinie jetzt.
- Schulung auf allen Senioritätsstufen. Senior-Partner benötigen andere Schulungen als Junior-Associates, die andere benötigen als Rechtsanwaltsfachangestellte.
- Laufende Modellkuration. Modelle ändern sich. Fähigkeiten verbessern sich, Kosten verschieben sich, Anbieter kündigen ab. Jemand muss der laufende Modellstratege der Kanzlei sein.
Das sind keine Mike-Anforderungen. Es sind Anforderungen für private KI. Jede Kanzlei, die 2026 eine Legal-AI-Plattform betreibt — Open Source oder kommerziell — muss alle zehn planen.
Die Frage: Selbst bauen, kaufen oder Partner einsetzen
Für die meisten Kanzleien ist die praktische Entscheidung 2026 nicht "Open Source vs. SaaS" sondern "welche Mischung aus Selbstbereitstellung und Partnerschaft ergibt Sinn?"
Eine nützliche Triage:
- Vollständig selbst bereitstellen, wenn Ihre Kanzlei dedizierte IT-Mitarbeiter hat, die sich mit Linux, Docker, Postgres, Python, Vektordatenbanken und Bereitschaftsdienst auskennen; wenn Sie interne Legal-Tech-Engineering-Kapazitäten haben; und wenn Sie mehrere Monate Plattformentwicklungszeit absorbieren können, bevor das erste Mandat durchläuft.
- Nur SaaS, wenn Ihre Kanzlei weniger als 50 Anwälte hat, keine IT-Mitarbeiter und die von Ihnen bearbeiteten Mandate keine Datenresidenz- oder Trainingsrisiko-Bedenken aufwerfen, die eine mandantenfähige Cloud inakzeptabel machen würden.
- Partner-Bereitstellung für die Mehrheit — Kanzleien, die die Datenschutz- und Kontrollvorteile einer privaten Bereitstellung wollen, es aber vernünftigerweise ablehnen, die Betriebslast zu übernehmen. Ein unabhängiger Integrator stellt die Plattform bereit, konfiguriert die Modellanbieter, baut die Workflow-Bibliothek der Kanzlei auf, schult das Team und wartet das System auf Retainer-Basis.
Die dritte Option ist die Neuerung. Bis Mike und seine Pendants existierten, war die Partner-Bereitstellung durch das Fehlen glaubwürdiger Open-Source-Plattformen eingeschränkt. Diese Einschränkung ist weggefallen.
Lawras Position
Lawra hat sich für diesen Moment positioniert.
Unser Sovereign Suite-Serviceangebot verfolgt den Partner-Bereitstellungsansatz: Wir stellen eine vollständige private Legal-AI-Plattform — Mike, wo es die richtige Lösung ist, oder eine individuelle Architektur, wo es das nicht ist — in Ihrer privaten Cloud oder on-premises-Infrastruktur bereit. Wir integrieren mit Ihrem DMS. Wir bauen Ihre Workflow-Bibliothek auf. Wir schulen Ihr Team. Wir betreiben die Plattform auf Retainer-Basis, wenn Sie das möchten.
Wir sind bewusst plattformunabhängig. Für manche Kanzleien ist Mike die richtige Antwort. Für andere ist die richtige Antwort ein individueller Aufbau auf Open-Weight-Modellen, die im eigenen GPU-Cluster der Kanzlei laufen. Für wieder andere ist ein verwalteter Endpunkt von Anthropic oder OpenAI unter Enterprise-Vertrag die richtige Balance aus Risiko, Kosten und Betriebsvereinfachung.
Die Frage lautet nicht "Was ist die beste Plattform?" — sondern "Was ist die beste Plattform für die Mandate, Infrastruktur und Risikoposition Ihrer Kanzlei?" Wir haben keine Anbieterbeziehungen, die die Empfehlung beeinflussen würden.
Was als nächstes kommt
Die Ära der Open-Source-Legal-AI begann 2026, aber die operative Ära — der Zeitraum, in dem Kanzleien diese Plattformen tatsächlich in der Produktion betreiben — hat kaum begonnen. Die nächsten 24 Monate werden eine Welle der Konsolidierung von Best Practices, regulatorischer Leitlinien, Berufshaftungsrechtsprechung und Regelgebung durch Anwaltsverbände hervorrufen. Kanzleien, die jetzt durchdacht bereitstellen, werden diesen entstehenden Konsens mitgestalten. Kanzleien, die warten, werden ihn erben.
Mikes Launch hat die Antwort nicht verändert. Er hat die Frage verändert. Die Frage lautete früher "Kann eine Kanzlei ihre eigene Legal-AI-Plattform betreiben?" Die Antwort ist jetzt offensichtlich: Ja. Die neue Frage ist "Sollten wir, und wie?" — und die muss jede Kanzlei für sich selbst beantworten.
Wir helfen Ihnen gerne dabei, sie zu beantworten.
Kommentare
Kommentare werden geladen...