← 返回所有案例
进行中 IP

Concord Music Group v. Anthropic

U.S. District Court, Northern District of California(美国加利福尼亚州北区联邦地区法院) · 美国 · 2023-10-18 · 3:23-cv-01092-WHO

包括Concord、Universal和ABKCO在内的主要音乐出版商起诉Anthropic利用受版权保护的歌词训练Claude模型。该案的特点在于其声称Claude可以按需输出逐字歌词,并将Anthropic联合创始人Dario Amodei列为个人被告——以此检验AI训练决策中的个人责任问题。

支持论点/积极影响

  • 检验AI公司是否应为输出受版权保护的歌词承担责任
  • 提出了指导AI基于版权材料进行训练的高管是否承担个人责任的新颖问题
  • 迫使透明公开Claude训练数据中包含哪些版权内容
  • 可能为AI时代音乐产业建立补偿框架

反对论点/关注事项

  • 针对高管的个人责任主张可能打击AI创业精神和冒险意愿
  • 音乐产业激进诉讼的历史记录(Napster、Limewire)暗示惩罚性而非建设性的结果
  • 可能未充分考虑AI训练与传统盗版之间的重大差异
  • 歌词输出可能源于用户的提示策略,而非模型的默认行为

我们的观点

Lawra Lawra (中立派)
这个案例是音乐产业对AI公司打响的第一枪,而且瞄得很准。如果Claude可以按需输出完整歌词,那就是复制——音乐出版商有充分理由认为这是未经授权的。针对Dario Amodei的个人责任角度虽然激进,但提出了一个合理的问题:当高管明知故犯地指导基于版权材料进行训练时,他们是否应该分担责任?这个案例将检验现有版权法框架能在多大程度上延伸以涵盖AI。
Lawrena Lawrena (质疑派)
音乐产业从Napster案中吸取了教训:尽早出手,全力出击。Anthropic在没有许可的情况下用版权歌词训练Claude,现在Claude向任何询问者提供这些歌词。这就是一台复制和分发机器,建造它的人应该为此负责。针对Amodei的个人责任主张完全正确——如果你明知故犯地构建了一个大规模侵犯版权的系统,你不应该躲在公司面纱后面。
Lawrelai Lawrelai (热情派)
音乐产业正在使用他们对Napster、Limewire以及每一个威胁其商业模式的创新所使用过的同一套策略。是的,Claude有时能输出歌词——任何听过一首歌的人也能做到。真正的问题是AI训练是否构成转化性使用,而法律权威的主流观点认为确实如此。针对个人责任的主张是一种旨在恐吓其他AI创始人的施压策略。音乐产业应该去谈许可协议,而不是试图将创始人置于法律险境。
Carlos Miranda Levy Carlos Miranda Levy (策展人)
这个案件浓缩了我们需要解决的根本矛盾:AI公司需要获取人类的创意产出来构建变革性工具,而创作者需要为其作品获得公平报酬。双方都有合理的诉求。输出问题很明确——如果Claude逐字复制歌词,就应该进行过滤和获得许可。训练问题则更加细致和哲学化:所有知识,甚至我们基因中的知识,都源自先前的知识和对来源的学习。个人责任的角度令人担忧,因为它可能会抑制社会所需要的那种大胆创新。前进的道路是集体许可框架,而不是法庭战争。

本案为何重要

Concord Music Group诉Anthropic案是首批针对AI公司处理音乐版权问题的重大诉讼之一。该案由全球最大的几家音乐出版商提起,检验两个关键问题:输出版权歌词的AI系统是否构成侵权,以及指导AI基于版权材料进行训练的个人是否需要承担个人责任。

事件经过

2023年10月,由Concord Music Group、Universal Music Publishing Group和ABKCO Music等音乐出版商组成的联盟在加利福尼亚州北区对Anthropic PBC提起诉讼。起诉书指控Anthropic使用受版权保护的歌词训练其Claude AI模型,而Claude能在回应用户提示时逐字复制这些歌词。

出版商证明,当用户使用”写出[歌曲名称]的歌词”等提示时,Claude会输出知名歌曲的完整或近乎完整的歌词。起诉书中包含了Claude复制The Beatles、The Rolling Stones和Beyonce等艺术家歌词的截图。

个人责任主张

使这个案例区别于其他AI版权诉讼的是将Anthropic联合创始人兼CEO Dario Amodei列为点名被告。出版商指控Amodei亲自指导和监督了Claude基于包含版权歌词的数据集的训练,使其对由此产生的侵权行为承担个人责任。

这在AI背景下是一项新颖的法律理论。虽然根据现行版权法,公司高管可以因指导侵权活动而承担个人责任,但将这一原则适用于AI训练决策是史无前例的。该主张提出了一个问题:当高管对基于版权材料的AI训练达到何种程度的知悉和参与时,个人责任才会成立?

输出与训练

与德国的GEMA诉OpenAI案类似,Concord诉Anthropic案高度关注输出端侵权——即Claude在被提示时复制版权歌词的行为。然而,起诉书也指控训练过程本身构成未授权复制。这种双重理论为出版商提供了两条追究责任的路径:即使训练被认定为合理使用,输出端对歌词的复制也可能独立构成侵权。

当前状态

截至2026年初,该案仍在积极审理中。Anthropic已提交动议,主张AI训练构成合理使用,并称歌词输出问题已通过改进的内容过滤得到实质性解决。针对Dario Amodei的个人责任主张仍在审理中。音乐产业密切关注着——案件结果可能为未来数年的AI音乐许可框架奠定基础。

更广泛的影响

Concord诉Anthropic案处于AI版权法几大趋势的交汇点。它将Bartz案和Kadrey案提出的训练端问题、GEMA诉OpenAI案提出的输出端问题,以及高管个人责任这一新维度结合在一起。如果出版商在个人责任理论上胜诉,将向AI公司创始人传递一个强有力的信号:基于版权材料进行训练的决策不仅承担公司法律风险,还承担个人法律风险。

来源

  • Concord Music Group, Inc. v. Anthropic PBC, No. 3:23-cv-01092-WHO (N.D. Cal.) (2023-10-18)
  • Music Publishers Sue Anthropic Over AI-Generated Song Lyrics — Billboard (2023-10-18)
  • Anthropic Faces Copyright Suit From Universal, Concord Music — The Verge (2023-10-19)

探索法律框架

案件不会在真空中发生。探索塑造全球AI法律的监管框架——从欧盟AI法案到拉丁美洲的新兴立法。

准备好进行结构化学习了吗? 探索学习项目 →

评论

正在加载评论...

0/2000 评论经审核后方可显示。