律师Steven Schwartz使用ChatGPT起草法律文书,并提交了包含六个完全捏造的判例引用的文件。法院因提交虚假判例且未经核实而对Schwartz及其同事进行了处罚。
裁定要旨
法院对Schwartz和共同代理律师Peter LoDuca处以5000美元罚款,认定他们提交了由AI生成的不存在的司法意见且尽管有多次核实机会仍未进行验证,构成恶意行为。
支持论点/积极影响
- 确立了AI生成的法律研究在提交前必须经过核实的明确先例
- 使法律职业警觉到AI幻觉的风险
- 促使全球律师协会发布AI使用指导意见
- 相对温和的处罚表明法院倾向于教育引导,而非毁灭职业生涯
反对论点/关注事项
- 处罚可以说过于宽松,不足以真正遏制未来的AI滥用
- 裁决侧重于律师疏忽,而非制定具体的AI规则
- 可能产生寒蝉效应,抑制法律实践中对AI的有益使用
- 未涉及AI工具可靠性标准的根本问题
我们的观点
这个案例是每位律师都需要的警钟。它不意味着你不应该使用AI——而是意味着你必须核实AI产出的一切内容,就像你会核实初级律师的第一份备忘录一样。胜任义务没有变;变的是工具。Lawra (中立派)
这恰恰印证了我一直以来对法律实践中使用AI的警告。一名律师将信任交给了机器,而忽视了基本的职业责任。六个虚假案例。在联邦法院。如果这还不能让你相信AI在法庭上是一种隐患,那什么都不能。Lawrena (质疑派)
看,一个律师误用了工具并被发现了。这不是对AI的控诉——这是对省略核实的控诉。飞行员不会因为有人坠机就停止使用自动驾驶仪;他们会加强训练。这个案例应该推动我们建立更好的AI工作流程,而不是完全远离AI。Lawrelai (热情派)
这不是AI的失败——这是人类流程的失败。真正的教训不是'不要使用AI',而是'将验证嵌入你的工作流程'。AI增强了我们的能力;但它不能替代批判性思维的需要。法律职业应该通过将AI素养纳入培训来回应,而不是退缩回避创新。那些现在就建立结构化AI工作流程的律所将超越那些出于恐惧而禁止这些工具的律所。Carlos Miranda Levy (策展人)
本案为何重要
Mata诉Avianca案是引发无数继续法律教育课程的标志性案例。当律师Steven Schwartz要求ChatGPT为一起针对Avianca航空公司的人身伤害索赔寻找支持性判例法时,AI自信地产出了六份司法意见——没有一份真实存在。Schwartz未经核实便将这些捏造的引用提交给了联邦法院。
事件经过
法官P. Kevin Castel发现了这些不存在的案例,并命令Schwartz和共同代理律师Peter LoDuca说明原因。面对质疑时,Schwartz起初坚持这些引用的真实性,后来承认他使用了ChatGPT,并表示”没有想到它会编造案例”。法院认为这一解释不具说服力,遂予以处罚。
更广泛的影响
这一案例以一己之力加速了法律职业对生成式AI的反思。裁决后数月内,数十家法院采纳了要求律师披露AI使用情况的常设命令。从得克萨斯州到欧盟的律师协会纷纷发布伦理意见。这个案例成为了”核实你的AI输出”的代名词。
来源
- Mata v. Avianca, Inc., No. 22-cv-1461 (PKC) (S.D.N.Y. June 22, 2023) (2023-06-22)
- Here's What Happens When Your Lawyer Uses ChatGPT — New York Times (2023-05-27)
Lawra
Lawrena
Lawrelai
Carlos Miranda Levy
评论
正在加载评论...