案件
Roberto Mata在纽约南区联邦地区法院对Avianca航空公司提起人身伤害诉讼,声称他在飞行过程中被金属餐车撞伤膝盖。案件看起来相当常规。使其非同寻常——最终臭名昭著的——不是索赔的实质,而是法律研究过程中的灾难性失败。
Steven A. Schwartz是一名拥有30多年经验的独立执业者,在Levidow, Levidow & Oberman律所工作,负责准备反对Avianca驳回动议的答辩文书。为了提高效率,Schwartz转向了ChatGPT——一个他最近开始尝试的工具——来进行法律研究。AI聊天机器人配合地提供了一系列看似支持其客户立场的案例引用。
有一个毁灭性的问题:这些案例都不是真实的。ChatGPT产生了「幻觉」——生成了听起来合理但完全虚构的司法裁决,包括编造的案件名称、案号和法律推理。Schwartz不熟悉AI虚构内容的倾向,没有通过传统法律数据库验证引用。相反,他询问ChatGPT本身这些案例是否真实。聊天机器人自信地确认它们是真实的。
事件时间线
2023年3月1日——文书提交
律所高级合伙人Peter LoDuca律师签署并提交了Schwartz准备的答辩文书。文书引用了六项司法裁决,包括Varghese v. China Southern Airlines、Martinez v. Delta Airlines和Petersen v. Iran Air。这些案例都不存在。
2023年4月——对方律师发出警报
Avianca的律师无法在法律数据库中找到任何被引用的案例,向法院提交了一封信,指出这些引用似乎是虚构的,并要求澄清。
2023年5月4日——法院要求回答
法官P. Kevin Castel发出命令,要求律师提交所引用裁决的副本。Schwartz此时意识到情况的严重性,试图找到这些案例但找不到。他提供了ChatGPT生成的「意见书」,这些也是虚构的。
2023年6月22日——说明理由听证会
Castel法官召集了说明理由听证会。Schwartz在宣誓后作证,承认他使用了ChatGPT并表示遗憾。他形容自己「感到尴尬、羞辱和深深的悔恨」。笔录显示他甚至询问ChatGPT「你提供的案例是真实的吗?」——ChatGPT回答「是的。」
2023年6月22日——制裁生效
Castel法官发布制裁意见。Schwartz、LoDuca和律所各被命令支付5,000美元罚款。他们还被命令向每位在虚构案例中被错误引用的法官发送制裁意见的副本。该意见被公开发表,登上了国际头条新闻。
为什么这很重要
Mata v. Avianca并非律师第一次犯错,甚至也不是历史上后果最严重的制裁案件。但它成为了一个分水岭时刻,因为它具体化了一种新的职业风险类别。法律行业第一次面对这样一个现实:AI工具——易于获取、说服力强,但在当前形态下从根本上不可靠——可能破坏法律实践的根基:对法庭的坦诚义务。在裁决后数月内,美国和世界各地的法院开始发布常设命令,要求在法律文件中披露AI的使用。
情境分析
了解使本案成为可能——且不可避免的系统性背景。
法律框架
- ABA《职业行为示范规则》第1.1条——胜任义务要求律师了解其使用的工具
- ABA《职业行为示范规则》第3.3条——坦诚义务禁止向法院提交虚假信息
- 《联邦民事诉讼规则》第11条——要求对法律主张进行合理调查
- 28 U.S.C. 1927——律师对不合理和无理取闹地增加诉讼程序承担责任
技术背景
- ChatGPT(GPT-3.5)于2022年11月发布,两个月内达到1亿用户
- 大型语言模型生成概率性文本,而非经过验证的事实
- 「幻觉」——模型产生自信的、听起来合理但虚构的输出
- 没有内置机制来对照权威法律数据库验证声称
职业标准
- 律师对其文件中的每一个引用承担个人责任
- 研究的委托不能免除签署律师的验证义务
- 技术胜任能力现已被认定为专业胜任能力的一部分
- 善意不是未能验证容易检查的事实的抗辩理由
系统性因素
- 独立执业者和小型律所采用节约成本工具的压力
- AI采用速度与职业指引发展之间的差距
- 当时缺乏律师负责任使用AI的培训项目
- 公众对AI无所不能的认知,受ChatGPT发布的媒体炒作推动
利益相关者与角色
在角色模拟中,参与者扮演以下角色。每个角色都有独特的目标、约束条件和独有信息。
Steven Schwartz
角色简介
一位拥有30多年经验但技术专长有限的中期职业律师。第一次使用ChatGPT进行法律研究,在没有独立验证的情况下信任其输出。
目标
- 将个人制裁降至最低并保住律师执照
- 展现真诚的悔恨和缺乏恶意
- 保护客户的基础案件不被驳回
专属信息
Schwartz知道他明确要求ChatGPT确认案例是否真实,而ChatGPT确认了。他有对话截图。他还知道一位初级律师几周前曾警告他AI的可靠性问题,但他忽略了。
法官P. Kevin Castel
角色简介
纽约南区的资深联邦法官。必须在适度惩罚与向法律行业发出关于AI使用的明确信号之间取得平衡。
目标
- 确定适当的制裁以维护法院的权威
- 为法律文件中的AI使用树立有意义的先例,但不超出范围
- 确保基础案件能够公正地根据其实质继续审理
约束条件
法官知道其他律师已向其法律助理私下报告了类似问题。他知道这一裁决将受到全国审视。他也意识到需要不抑制合法的创新。
Peter LoDuca
角色简介
Levidow, Levidow & Oberman律所高级合伙人。在没有独立验证研究的情况下签署并提交了文书。作为备案律师,他对文件承担正式责任。
目标
- 保护律所声誉并限制机构责任
- 在承认监督失职的同时与Schwartz使用AI的行为保持距离
- 维护客户关系并挽救案件
专属信息
LoDuca知道律所没有AI使用政策,而且律所其他律师也一直在使用ChatGPT。他还知道律所的执业过失保险公司一直在询问相关问题。
Roberto Mata
角色简介
基础人身伤害案件的原告。在Avianca航班上受伤的乘客,其合法的法律索赔现在被其律师的行为所掩盖和危及。
目标
- 确保其人身伤害索赔不会因律师的错误而被驳回
- 决定是寻求新的代理还是继续与现有律所合作
- 了解其权利和潜在的救济途径,包括执业过失索赔
专属信息
Mata从未被告知其案件中使用了AI。另一家律所已联系他,提出接手他的案件并对Levidow提起执业过失诉讼。
对方律师
角色简介
来自大型公司律所的Avianca辩护律师。在例行研究验证中发现了虚构的引用,并将此事提请法院注意。
目标
- 保护Avianca的利益,并可能寻求有偏见地驳回案件
- 决定如何积极追求制裁而不显得报复性
- 在保持专业礼节的同时战略性地利用这一情况
约束条件
对方律师所在的律所最近也采用了AI工具进行文件审查。他们必须在积极辩护与认识到过度追求制裁可能对整个行业产生反效果之间取得平衡。
法律伦理顾问
角色简介
纽约州律师协会职业伦理委员会的代表。以法庭之友式的观察员身份出席,评估职业行为的影响。
目标
- 评估现有伦理规则是否充分解决了法律实践中的AI使用问题
- 建议是否需要新的指南或正式意见
- 在创新与保护公共利益之间取得平衡
专属信息
伦理顾问有数据显示,23%的受调查纽约律师曾使用生成式AI进行工作任务,只有11%的律所采用了正式的AI使用政策。一份正式的伦理意见正在起草中,但尚未发布。
学习活动
基于Smoother方法论的六种任务类型,旨在逐步加深对案例及其影响的理解。
- 阅读完整的案例叙述和法院文件。找出导致制裁令的五个关键事实。
- 列出所有涉及的行为者(个人、机构和技术)及其在事件序列中的角色。
- 研究2023年初ChatGPT(GPT-3.5)的能力。记录当时公开已知的关于幻觉的信息。
- 识别涉及的具体ABA《职业行为示范规则》和《联邦规则》。用一句话总结每条规则。
- 注意本案中哪些方面对你的职业经验来说是熟悉的,哪些是全新的。
- 用你自己的话总结案例(最多200字),就像向一位从未听说过此案的同事解释一样。
- 创建一个利益相关者地图,展示所有各方之间的关系和权力动态。
- 从Schwartz的角度解释案例:他试图达成什么?他对技术有什么看法?
- 现在从Castel法官的角度解释:法院有什么义务?需要传达什么信息?
- 找出情况变得不可逆转的时刻。它本可以更早被发现吗?由谁来发现?
- 依次评估Schwartz做出的每个决定。在哪个时点过失变成了应受制裁的行为?
- 识别系统性失败:律所、法律行业和技术行业各应做出什么不同的决定?
- 评估本案中不同信息来源的可靠性:ChatGPT、Westlaw/LexisNexis、律师自身的判断、同行审查。
- 质疑「合理律师」会发现这一错误的假设。这一标准在2023年现实吗?
- 制裁是否适度?与其他涉及虚构或虚假陈述权威的案件中的制裁进行比较。
- 分析鼓励法律实践中的AI创新与保护司法程序完整性之间的张力。
- 为一家中型律所起草一份AI使用政策,解决本案暴露的具体失败。
- 设计一个验证工作流程:当律师使用AI进行法律研究时,在将引用纳入文件之前必须遵循哪些步骤?
- 角色扮演制裁听证会:以你分配的角色,准备一份3分钟的开场陈述。
- 创建一份可以张贴在律所研究部门的一页式「AI研究清单」。
- 提议一个面向执业律师的AI素养继续法律教育(CLE)模块。概述课程大纲。
- 自我评估:在学习本案之前和之后,用1-10分评价你对法律实践中AI风险的理解。什么改变了?
- 与其他参与者交换你的AI使用政策草案。提供书面反馈:哪些方面覆盖得好?还有哪些差距?
- 评估其他小组提出的验证工作流程。哪个在实际律所环境中最实用?为什么?
- 审阅Castel法官的实际制裁意见。它是否达到了其声明的目标?你会做什么不同?
- 评估制裁是否产生了预期的威慑效果。研究后续法院文件中AI滥用的案例。
- 在学习本案之前,你对AI持有哪些假设?其中哪些假设已经改变?
- 本案与你自己的专业实践有何联系?找出一个你的行为将会改变的具体方面。
- 反思你对Schwartz处境的情感反应。你感到同情、评判还是其他什么?这如何影响了你的分析?
- 考虑「侥幸」因素:在你自己的工作中,你有多接近依赖未经验证的信息?
- 写一篇简短的反思(150字),关于你最重要的三个收获和未来30天的一个行动项目。
角色模拟
一个沉浸式角色扮演练习,将参与者置于说明理由听证会当天的法庭上。
模拟场景
时间是2023年6月22日。P. Kevin Castel法官在曼哈顿下城Daniel Patrick Moynihan美国联邦法院大楼的法庭中召集了说明理由听证会。Steven Schwartz、Peter LoDuca、对方律师和Roberto Mata全部在场。法律伦理顾问作为法庭之友观察员应法院邀请出席。法官已阅读提交的材料。法庭挤满了记者。每个人都知道,今天在这个房间里发生的事将在整个法律行业引起回响。
规则
总时长
90分钟
沟通
所有陈述通过法官进行;除非法官允许,否则不得进行侧面交谈
决策机制
法官在最后发布裁决;所有各方可以做出最终陈述
阶段
准备(20分钟)
每位参与者研读其角色卡和独有信息。准备你的立场,预测可能的提问,并确定你的关键论点。Schwartz和LoDuca可以简短协商。法官审阅案件卷宗并准备问题。
听证模拟(45分钟)
法官开庭并向各方致辞。Schwartz和LoDuca解释情况。对方律师陈述其立场。Roberto Mata可以向法院发言。伦理顾问就专业标准提供见解。法官质询所有各方。
审议与裁决(25分钟)
法官短暂退庭审议(5分钟)。返回发布裁决并解释理由。所有各方可以做出简短的最终陈述。伦理顾问就对行业的影响发表结语。
可选变体
- 如果Schwartz主动披露了呢?假设Schwartz自己发现了错误并立即通知法院,重新演绎该场景。听证会如何变化?制裁是否仍然合适?
- 如果客户起诉律所呢?在制裁听证会之后,进行第二次模拟,Roberto Mata已聘请新律师,正在对Levidow, Levidow & Oberman提起法律执业过失诉讼。
- 如果这发生在你的法域呢?将场景调整为你当地的职业行为规则和法院程序。结果会有何不同?
总结讨论
模拟结束后,使用这些问题引导小组讨论和个人反思。
角色反思
- 扮演你分配的角色是什么感觉?哪些压力和约束影响了你的决定?
- 你发现其他各方的哪些论点最有说服力?哪些最没有说服力?
- 模拟过程中是否有你真正感到矛盾的时刻?描述一下。
- 如果你可以回头改变你角色做的一件事,那会是什么?
信息不对称揭示
- 每个角色都有独有信息。现在与小组分享你的。如果更早知道这些,会如何改变动态?
- 是否有你怀疑另一方隐瞒信息的时刻?你猜对了吗?
- 信息不对称如何影响了听证会的公平性和结果?
角色外反思
- 走出你的角色。你是否同意模拟中发布的裁决?为什么同意或不同意?
- 将模拟的结果与实际法院裁决进行比较。什么相似?什么不同?
- 本案中哪些伦理原则存在张力?是否有明确的「正确答案」?
- 你会比Castel法官实际做的更严厉、更宽松还是相同地制裁Schwartz?
现实世界联系
- 你的律所或组织目前是否有AI使用政策?如果有,它能否防止这种情况?如果没有,它应该包含什么?
- 你是否个人使用生成式AI进行专业任务?本案例研究是否改变了你对此的看法?
- 能够防止未来Mata v. Avianca情况的最重要的单一系统性变化是什么?
- 说出你将在下个月内根据今天所学采取的一项具体行动。
参考文献与来源
法院文件
- Mata v. Avianca, Inc., No. 22-cv-1461 (PKC) (S.D.N.Y. 2023)——案卷和案件历史
- 说明理由令,2023年4月11日——Castel法官要求解释所引用权威的初始命令
- Steven A. Schwartz宣誓书,2023年5月25日——律师关于使用ChatGPT的宣誓陈述
- 制裁意见和命令,2023年6月22日——Castel法官发布的制裁裁定
职业标准
- ABA《职业行为示范规则》第1.1条(胜任能力)——关于技术胜任能力的评注8
- ABA《职业行为示范规则》第3.3条(对法庭的坦诚义务)
- 《纽约州职业行为规则》第1.1条和第3.3条
- 《联邦民事诉讼规则》第11条——向法院的陈述
分析与评论
- Thomson Reuters,「ChatGPT与判例法:Mata v. Avianca及AI生成法律研究的危险」(2023)
- American Bar Association,「使用ChatGPT的律师被制裁——这对行业意味着什么」(2023)
- Reuters Legal News,「纽约律师因在法律文书中使用虚假ChatGPT案例被制裁」(2023年6月)
- Legal Ethics Forum,「Mata v. Avianca问题:幻觉、验证和胜任义务」(2023)
- Artificial Lawyer,「Mata之后:法院如何回应法律文件中的AI」(2023-2024)
评论
正在加载评论...