← 返回所有案例
已结案 Ethics

Mata诉Avianca案

U.S. District Court, Southern District of New York · United States · 2023-06-22 · 22-cv-1461 (PKC)

律师Steven Schwartz使用ChatGPT起草法律文书,并提交了包含六个完全捏造的判例引用的文件。法院因提交虚假判例且未经核实而对Schwartz及其同事进行了处罚。

裁定要旨

法院对Schwartz和共同代理律师Peter LoDuca处以5000美元罚款,认定他们提交了由AI生成的不存在的司法意见且尽管有多次核实机会仍未进行验证,构成恶意行为。

支持论点/积极影响

  • 确立了AI生成的法律研究在提交前必须经过核实的明确先例
  • 使法律职业警觉到AI幻觉的风险
  • 促使全球律师协会发布AI使用指导意见
  • 相对温和的处罚表明法院倾向于教育引导,而非毁灭职业生涯

反对论点/关注事项

  • 处罚可以说过于宽松,不足以真正遏制未来的AI滥用
  • 裁决侧重于律师疏忽,而非制定具体的AI规则
  • 可能产生寒蝉效应,抑制法律实践中对AI的有益使用
  • 未涉及AI工具可靠性标准的根本问题

我们的观点

Lawra Lawra (中立派)
这个案例是每位律师都需要的警钟。它不意味着你不应该使用AI——而是意味着你必须核实AI产出的一切内容,就像你会核实初级律师的第一份备忘录一样。胜任义务没有变;变的是工具。
Lawrena Lawrena (质疑派)
这恰恰印证了我一直以来对法律实践中使用AI的警告。一名律师将信任交给了机器,而忽视了基本的职业责任。六个虚假案例。在联邦法院。如果这还不能让你相信AI在法庭上是一种隐患,那什么都不能。
Lawrelai Lawrelai (热情派)
看,一个律师误用了工具并被发现了。这不是对AI的控诉——这是对省略核实的控诉。飞行员不会因为有人坠机就停止使用自动驾驶仪;他们会加强训练。这个案例应该推动我们建立更好的AI工作流程,而不是完全远离AI。
Carlos Miranda Levy Carlos Miranda Levy (策展人)
这不是AI的失败——这是人类流程的失败。真正的教训不是'不要使用AI',而是'将验证嵌入你的工作流程'。AI增强了我们的能力;但它不能替代批判性思维的需要。法律职业应该通过将AI素养纳入培训来回应,而不是退缩回避创新。那些现在就建立结构化AI工作流程的律所将超越那些出于恐惧而禁止这些工具的律所。

本案为何重要

Mata诉Avianca案是引发无数继续法律教育课程的标志性案例。当律师Steven Schwartz要求ChatGPT为一起针对Avianca航空公司的人身伤害索赔寻找支持性判例法时,AI自信地产出了六份司法意见——没有一份真实存在。Schwartz未经核实便将这些捏造的引用提交给了联邦法院。

事件经过

法官P. Kevin Castel发现了这些不存在的案例,并命令Schwartz和共同代理律师Peter LoDuca说明原因。面对质疑时,Schwartz起初坚持这些引用的真实性,后来承认他使用了ChatGPT,并表示”没有想到它会编造案例”。法院认为这一解释不具说服力,遂予以处罚。

更广泛的影响

这一案例以一己之力加速了法律职业对生成式AI的反思。裁决后数月内,数十家法院采纳了要求律师披露AI使用情况的常设命令。从得克萨斯州到欧盟的律师协会纷纷发布伦理意见。这个案例成为了”核实你的AI输出”的代名词。

来源

探索法律框架

案件不会在真空中发生。探索塑造全球AI法律的监管框架——从欧盟AI法案到拉丁美洲的新兴立法。

准备好进行结构化学习了吗? 探索学习项目 →

评论

正在加载评论...

0/2000 评论经审核后方可显示。