Große Musikverlage, darunter Concord, Universal und ABKCO, verklagten Anthropic wegen des Trainings von Claude mit urheberrechtlich geschützten Songtexten. Der Fall ist bemerkenswert für die Behauptung, dass Claude auf Anfrage wortgetreue Liedtexte ausgibt, und dafür, dass Anthropic-Mitgründer Dario Amodei als persönlicher Beklagter benannt wird — ein Test der persönlichen Haftung für KI-Trainingsentscheidungen.
Argumente dafür / Positive Auswirkungen
- Prüft, ob KI-Unternehmen für die Ausgabe urheberrechtlich geschützter Songtexte haftbar gemacht werden können
- Wirft die neuartige Frage der persönlichen Haftung von Führungskräften auf, die KI-Training mit urheberrechtlich geschütztem Material anordnen
- Erzwingt Transparenz darüber, welche urheberrechtlich geschützten Inhalte in Claudes Trainingsdaten enthalten sind
- Könnte Vergütungsrahmen für die Musikbranche im KI-Zeitalter schaffen
Argumente dagegen / Bedenken
- Ansprüche auf persönliche Haftung von Führungskräften könnten KI-Unternehmertum und Risikobereitschaft entmutigen
- Die Bilanz der Musikbranche bei aggressiver Litigation (Napster, Limewire) deutet auf strafende statt produktive Ergebnisse hin
- Berücksichtigt möglicherweise nicht die erheblichen Unterschiede zwischen KI-Training und traditioneller Piraterie
- Die Ausgabe von Liedtexten kann auf Nutzer-Prompting-Strategien zurückzuführen sein und nicht auf das Standardverhalten des Modells
Unsere Einschätzungen
Dieser Fall ist die Eröffnungssalve der Musikbranche gegen KI-Unternehmen, und sie ist gut gezielt. Wenn Claude auf Anfrage vollständige Songtexte ausgeben kann, ist das eine Vervielfältigung — und die Musikverlage haben ein starkes Argument, dass sie nicht autorisiert ist. Der Aspekt der persönlichen Haftung gegen Dario Amodei ist aggressiv, wirft aber eine berechtigte Frage auf: Wenn Führungskräfte wissentlich das Training mit urheberrechtlich geschütztem Material anordnen, sollten sie dann die Haftung teilen? Dieser Fall wird testen, wie weit der bestehende Rechtsrahmen des Urheberrechts für KI gedehnt werden kann.Lawra (Die Moderate)
Die Musikbranche hat aus Napster gelernt: Geh früh gegen die Unternehmen vor und geh hart vor. Anthropic hat Claude ohne Lizenzen mit urheberrechtlich geschützten Liedtexten trainiert, und jetzt liefert Claude sie jedem, der fragt. Das ist eine Vervielfältigungs- und Verbreitungsmaschine, und die Menschen, die sie gebaut haben, sollten sich dafür verantworten. Der Anspruch auf persönliche Haftung gegen Amodei ist genau richtig — wenn man wissentlich ein System baut, das in großem Umfang Urheberrechte verletzt, sollte man sich nicht hinter dem Unternehmensschleier verstecken können.Lawrena (Die Skeptikerin)
Die Musikbranche verwendet dasselbe Drehbuch wie gegen Napster, Limewire und jede Innovation, die ihr Geschäftsmodell bedrohte. Ja, Claude kann manchmal Liedtexte ausgeben — das kann jeder Mensch, der einen Song gehört hat, auch. Die eigentliche Frage ist, ob KI-Training transformative Nutzung darstellt, und das Gewicht der Rechtsautorität sagt ja. Der Anspruch auf persönliche Haftung ist eine Drucktaktik, die andere KI-Gründer einschüchtern soll. Die Branche sollte Lizenzvereinbarungen verhandeln, statt zu versuchen, Gründer in rechtliche Gefahr zu bringen.Lawrelai (Die Enthusiastin)
Dieser Fall fasst die grundlegende Spannung zusammen, die wir lösen müssen: KI-Unternehmen brauchen Zugang zur kreativen Leistung der Menschheit, um transformative Werkzeuge zu bauen, und Urheber brauchen eine faire Vergütung für ihre Arbeit. Beide Seiten haben berechtigte Ansprüche. Die Ausgabefrage ist klar — wenn Claude wortgetreu Liedtexte wiedergibt, sollte das gefiltert und lizenziert werden. Die Trainingsfrage ist nuancierter und philosophischer: Alles Wissen, sogar in unseren Genen, leitet sich von früherem Wissen und dem Lernen aus Quellen ab. Der Aspekt der persönlichen Haftung ist beunruhigend, weil er genau die Art von mutiger Innovation entmutigen könnte, die die Gesellschaft braucht. Der Weg nach vorn sind kollektive Lizenzrahmenwerke, nicht Krieg vor Gericht.Carlos Miranda Levy (Der Kurator)
Warum dieser Fall wichtig ist
Concord Music Group v. Anthropic ist eine der ersten großen Klagen gegen ein KI-Unternehmen wegen der Behandlung von Musikurheberrechten. Eingereicht von einigen der weltweit größten Musikverlage, prüft sie zwei entscheidende Fragen: ob KI-Systeme, die urheberrechtlich geschützte Liedtexte ausgeben, Rechte verletzen, und ob Personen, die KI-Training mit urheberrechtlich geschütztem Material anordnen, persönlich haftbar gemacht werden können.
Was geschah
Im Oktober 2023 reichte eine Koalition von Musikverlagen — darunter Concord Music Group, Universal Music Publishing Group und ABKCO Music — Klage gegen Anthropic PBC vor dem Northern District of California ein. Die Klageschrift behauptete, Anthropic habe sein KI-Modell Claude mit urheberrechtlich geschützten Songtexten trainiert und Claude könne diese Texte auf Nutzeranfragen hin wortgetreu reproduzieren.
Die Verleger demonstrierten, dass Claude vollständige oder nahezu vollständige Liedtexte bekannter Songs ausgab, wenn es mit Anfragen wie „schreibe mir die Liedtexte von [Songtitel]” aufgefordert wurde. Die Klageschrift enthielt Screenshots, die zeigten, wie Claude Liedtexte von Künstlern wie The Beatles, The Rolling Stones und Beyoncé reproduzierte.
Der Anspruch auf persönliche Haftung
Was diesen Fall von anderen KI-Urheberrechtsklagen unterscheidet, ist die Einbeziehung von Anthropic-Mitgründer und CEO Dario Amodei als namentlich genannter Beklagter. Die Verleger behaupten, Amodei habe das Training von Claude mit Datensätzen, die urheberrechtlich geschützte Liedtexte enthielten, persönlich angeordnet und beaufsichtigt, was ihn individuell haftbar für die daraus resultierende Rechtsverletzung mache.
Dies ist eine neuartige Rechtstheorie im KI-Kontext. Während Unternehmensverantwortliche nach bestehendem Urheberrecht persönlich haftbar gemacht werden können, wenn sie rechtsverletzende Aktivitäten anordnen, ist die Anwendung dieses Prinzips auf KI-Trainingsentscheidungen beispiellos. Der Anspruch wirft die Frage auf: Ab welchem Grad des Wissens und der Beteiligung von Führungskräften greift die persönliche Haftung für KI-Training mit urheberrechtlich geschütztem Material?
Ausgabe vs. Training
Wie GEMA v. OpenAI in Deutschland konzentriert sich Concord v. Anthropic stark auf die ausgabeseitige Rechtsverletzung — den Anspruch, dass Claude urheberrechtlich geschützte Liedtexte auf Anfrage reproduziert. Die Klageschrift behauptet jedoch auch, dass der Trainingsprozess selbst eine unerlaubte Vervielfältigung darstellt. Diese doppelte Theorie gibt den Verlegern zwei Wege zur Haftung: Selbst wenn das Training als Fair Use eingestuft wird, könnte die ausgabeseitige Reproduktion von Liedtexten unabhängig davon eine Rechtsverletzung darstellen.
Aktueller Stand
Der Fall befindet sich Anfang 2026 weiterhin in aktiver Litigation. Anthropic hat Anträge eingereicht, in denen argumentiert wird, dass KI-Training Fair Use darstellt und dass das Problem der Textausgabe durch verbesserte Inhaltsfilterung weitgehend behoben wurde. Die Ansprüche auf persönliche Haftung gegen Dario Amodei sind weiterhin anhängig. Die Musikbranche beobachtet aufmerksam — das Ergebnis könnte den Rahmen für KI-Musiklizenzierung für Jahre bestimmen.
Die breitere Wirkung
Concord v. Anthropic steht an der Schnittstelle mehrerer wichtiger Trends im KI-Urheberrecht. Es kombiniert die trainingsseitigen Fragen aus Bartz und Kadrey mit den ausgabeseitigen Fragen aus GEMA v. OpenAI und fügt die neuartige Dimension der persönlichen Haftung von Führungskräften hinzu. Wenn die Verleger mit der Theorie der persönlichen Haftung Erfolg haben, würde dies eine starke Botschaft an KI-Unternehmensgründer senden: Die Entscheidung, mit urheberrechtlich geschütztem Material zu trainieren, birgt persönliches rechtliches Risiko, nicht nur Unternehmensrisiko.
Quellen
- Concord Music Group, Inc. v. Anthropic PBC, No. 3:23-cv-01092-WHO (N.D. Cal.) (2023-10-18)
- Music Publishers Sue Anthropic Over AI-Generated Song Lyrics — Billboard (2023-10-18)
- Anthropic Faces Copyright Suit From Universal, Concord Music — The Verge (2023-10-19)
Rechtsrahmen erkunden
Fälle entstehen nicht im luftleeren Raum. Erkunden Sie die regulatorischen Rahmen, die das KI-Recht weltweit prägen — vom EU AI Act bis zu aufkommender Gesetzgebung in Lateinamerika.
Bereit für strukturiertes Lernen? Das Lernprogramm erkunden →
Lawra
Lawrena
Lawrelai
Carlos Miranda Levy
Kommentare
Kommentare werden geladen...