探索

不该做什么

危险地带。这些错误已经让律师付出了声誉、金钱和执照的代价。每一个都有真实案例、真实后果和真实教训作为支撑。从他人的错误中学习,这样你就不必从自己的错误中学习。

Lawra
从他人的错误中学习远比犯自己的错误代价低廉。而在法律领域,AI的错误是有代价的。

为什么这很重要: AI工具强大但不完美。法律行业已经出现了因不当使用AI而导致的制裁、停业和执业过失索赔。每个案例中的共同主线都是一样的——律师将AI输出视为成品而非起点。

1

不要在未逐字阅读的情况下提交AI输出

律师对向法院提交的每一个字都负有个人责任。AI生成的文本可能包含捏造的引用、臆造的判例法以及听起来自信满满的胡言乱语。

风险

职业制裁、执业过失责任、案件被驳回、法官将案件移交律师协会纪律委员会

真实案例

在Mata诉Avianca公司案(S.D.N.Y. 2023)中,律师Steven Schwartz和Peter LoDuca提交了一份包含六个完全捏造的案例引用的诉状,这些引用由ChatGPT生成。当对方律师和P. Kevin Castel法官无法查找到这些案例时,两位律师变本加厉——要求ChatGPT确认这些案例的存在。Castel法官对每位律师处以5,000美元罚款,认定他们未能核实AI输出构成恶意行为。该案成为全球性的警示案例。

缓解措施

逐字阅读AI生成的每一份输出。对照原始来源——Westlaw、LexisNexis或官方法院数据库——核实每一条引用。将AI输出视为一个不可靠实习生的未经核实的初稿,而非完成的工作成果。

听着,我理解——使用AI的全部意义就是节省时间。但通过提交虚假案例来'节省时间'就像通过不买执业过失保险来'省钱'一样。你不会在没有阅读的情况下提交律师助理写的诉状。你当然更不应该在没有阅读的情况下提交你的机器人写的诉状。AI没有可以失去的律师执照。你有。

-- Lawra
2

不要将客户机密信息粘贴到公共AI工具中

消费级AI工具如ChatGPT、Gemini和Claude(免费版)可能会将你的输入用于模型训练。将客户数据粘贴到这些工具中构成保密义务违反。

风险

律师-客户特权被破坏、保密义务违反、执业过失责任、监管处罚、客户信任毁损

真实案例

2023年4月,三星电子在短短20天内发生了三起独立的数据泄露事件,工程师将专有源代码、内部会议记录和硬件测试数据粘贴到ChatGPT中。三星随后禁止所有员工使用生成式AI工具。虽然这是一起企业事件,但它完美地说明了律师面临的风险:一旦信息进入公共AI系统,你就失去了对它的所有控制。在法律领域,纽约市律师协会专门发布了第2023-7号正式意见,警告律师注意这一风险。

缓解措施

最安全的选择:在你自己的电脑上安装本地AI——你的数据永远不会离开你的设备(参见我们的本地AI指南)。或者,使用有合同数据保护保证的企业级AI工具(如Azure OpenAI、ChatGPT Enterprise、Claude for Business)。永远不要将可识别的客户信息粘贴到免费消费级AI工具中。在使用AI处理任何客户相关任务之前进行匿名化和脱敏。建立事务所范围内的AI数据处理规程。

关于律师-客户特权,有一点是这样的:它不仅仅是一条规则,它是整个法律体系的基础。你的客户告诉你他们的秘密是因为他们信任你。把这些秘密粘贴到ChatGPT里就像把他们的档案敞开放在公园长椅上,然后祈祷没人读到一样。只是更糟糕——因为至少公园长椅不会从放在上面的东西中学习。

-- Lawra
3

不要假设AI理解你的管辖区

AI模型在混合了多个国家和管辖区法律体系的海量数据集上训练。它们经常混淆普通法与大陆法、联邦与州规则,以及一个国家的法规与另一个国家的法规。

风险

基于错误管辖区法律进行文书提交、提供不正确的法律建议、执业过失责任、在法院丧失信誉

真实案例

在2023年法律技术研究人员记录的一起事件中,一名美国律师使用ChatGPT进行合同法研究时,收到的建议无缝混合了《统一商法典》(美国)、《1979年货物销售法》(英格兰和威尔士)和《联合国国际货物销售合同公约》(CISG)的原则——而没有任何提示表明三个不同的法律体系被混在一起。这名律师差点将外国法律标准纳入一个纯国内的合同纠纷中。另外,在Zachariah C. Crabill 2023年的纪律案件(科罗拉多州)中,该律师提交了AI生成的动议,其中引用了不存在的科罗拉多州案例,这些案例是从AI吸收的多个美国管辖区的模式中构造出来的。

缓解措施

在你的提示词中始终指明确切的管辖区——州、联邦巡回区、国家和适用的法律体系。将每一份AI输出与管辖区特定的来源进行交叉参考。永远不要信任AI对适用法律的隐含假设。

AI模型就像那个去过很多地方但把所有地方都记成一样的'见多识广'的朋友。'哦,你在德克萨斯?让我告诉你一个很好的先例,来自……*查看笔记*……英格兰和威尔士高等法院。'管辖区精确性不是锦上添花——它是区分法律建议和法律虚构的关键。

-- Lawra
5

不要在法院要求披露时隐瞒AI使用

越来越多的法院要求律师在使用AI工具准备文书时进行披露。未按要求披露是通向制裁和丧失信誉的快车道。

风险

因不遵守法院命令而受到制裁、丧失司法信任、纪律处分程序、改变案件走向的后果

真实案例

2023年6月,美国德克萨斯北区联邦地区法院Brantley Starr法官发布了最早的常设命令之一,要求所有律师证明文书中AI生成的文本已由人工核实。到2024年初,第五巡回上诉法院采纳了一项全巡回区规则,要求AI披露证明。第十一巡回上诉法院、多个美国联邦地区法院以及英国、加拿大和澳大利亚的法院也跟进了类似要求。2024年2月,宾夕法尼亚东区的一名联邦治安法官在采纳了要求披露AI使用的当地规则后,对一名未能披露AI使用的律师实施了制裁。

缓解措施

在提交文书前检查每个管辖区当前关于AI披露的常设命令和地方规则。宁可选择透明——即使没有明确要求,主动披露也能建立信任。为你的事务所制定标准的AI披露声明。

法院不是要你认罪。他们是要你做一个专业人士。披露规则的存在是因为法官们厌倦了玩'猜猜哪些引用是真的'的游戏。如果你不好意思告诉法官你使用了AI,这可能意味着你应该更谨慎地使用它。透明不是弱点——它表明你在为自己的工作成果承担责任。

-- Lawra
6

不要将AI输出当作法律研究

AI生成的是看似合理的法律文本,而非经过核实的法律分析。它产出看起来像研究但实际上并未经过研究的文本。将AI输出当作替代适当法律研究的工具是一种职业危害。

风险

依赖捏造的权威来源、不完整的法律分析、遗漏控制性权威、执业过失风险、制裁

真实案例

2024年斯坦福大学由研究人员Varun Magesh和Daniel E. Ho领导的研究测试了主要AI模型(GPT-4、Claude、Llama 2)的法律研究能力,发现当被问及直接的法律研究问题时,它们产生幻觉法律引用的比率在69%到88%之间。即使引用是真实的,模型也经常错误陈述判决要旨、适用不正确的标准,或遗漏控制性的相反权威。这项名为《法律幻觉》的研究表明,目前没有任何AI模型作为独立法律研究工具是可靠的。

缓解措施

使用AI生成研究假设、识别潜在的搜索词,并创建初步大纲。然后使用权威数据库进行实际的法律研究——Westlaw、LexisNexis、Fastcase、Google Scholar或官方法院和立法数据库。AI是头脑风暴的伙伴;Westlaw才是真相的来源。

你不会在诉状中引用维基百科。那你为什么要引用一个本质上是穿着法学学位外衣的维基百科?AI不做研究。它预测文本。这是根本不同的两种活动。用它来启动你的研究,绝对可以——但当你开始把'ChatGPT这么说'当作'法律这么规定'的那一刻,你就不再是律师了,而是一个非常昂贵的自动补全。

-- Lawra
7

不要将AI用于需要情商的任务

客户咨询、敏感谈判、证人准备和传达坏消息需要人类的同理心、情感协调和人际判断,这些是AI从根本上无法提供的。

风险

客户关系受损、代理不充分、伦理违反、未能履行信托义务、对弱势群体造成伤害

真实案例

2023年,美国全国饮食失调协会(NEDA)用一个名为'Tessa'的AI聊天机器人取代了其人工帮助热线咨询师。几天之内,用户报告Tessa提供的建议可能会加重饮食失调——包括向寻求厌食症帮助的人推荐计算卡路里和减肥。NEDA在一周内关闭了Tessa。虽然这不是一个法律案例,但它完美地说明了当AI被部署在需要情感敏感性和细致人类理解的环境中时会发生什么。在法律领域,多个律师协会已经警告说,AI无法取代客户咨询中所需的判断,特别是在家庭法、刑事辩护和移民法等敏感执业领域。

缓解措施

将需要同理心、情商、洞察弦外之音和人际联系的任务保留给人类专业人员。使用AI进行背景研究和起草来支持这些互动,但永远不要将其作为人际互动本身的替代品。

你的客户不需要一个关于他们的监护权之争的统计学上最可能的回答。他们需要一个看着他们的眼睛说'我理解你正在经历什么,以下是我们为你争取的方式'的人。AI可以起草动议,但它无法承托那个空间。如果你在用ChatGPT写告诉客户他们的上诉被驳回的邮件,你从根本上误解了你的客户在那一刻需要你做什么。

-- Lawra
8

不要忽视你的律师协会AI指南

美国各地和国际上的律师协会正以加速的速度发布AI专项指南。这些不是建议——它们是对现有伦理义务的解释,违反将产生实际后果。

风险

纪律处分、停牌、吊销执照、执业过失认定、丧失专业地位

真实案例

2024年1月,佛罗里达州律师协会理事会发布了关于AI使用的详细指南,加利福尼亚州律师协会、纽约州律师协会和众多其他管辖区紧随其后。ABA于2024年7月发布了第512号正式意见,提供了国家层面的指导。忽视早期指南的律师承受了后果:在Crabill纪律案件(科罗拉多州,2024年)中,裁判庭特别指出,现有的伦理规则——即使没有AI专项指南——已经创建了该律师未能履行的义务。信息很明确:'我不知道有AI规则'在现有的胜任能力和监督规则已经适用的情况下不构成抗辩。

缓解措施

立即查找并阅读你的律师协会的AI指南。订阅你的律师协会的伦理更新。如果你的管辖区尚未发布具体的AI指南,将现有的伦理规则——胜任能力(第1.1条)、保密(第1.6条)、监督(第5.1和5.3条)和坦诚(第3.3条)——适用于你的AI使用。记录你的合规情况。

我知道,我知道——'阅读律师协会指南'是法律行业版的'多吃蔬菜'。但事情是这样的:这些指南是你的盾牌。当出了问题时——总有一天,对某些人来说,确实会出问题——纪律委员会问的第一个问题将是'你有没有遵循适用的指南?'如果你的回答是'我不知道有什么指南',那你已经输了。而且说实话,大多数指南实际上写得相当好。律师协会在试图帮忙。让他们帮吧。

-- Lawra
9

不要让AI撰写你的整份法律文书

AI生成的法律文书缺乏区分有效法律辩护的策略远见、说服力声音和细致论证。一份完全由AI撰写的法律文书是一份通用文件,不服务于任何客户的特定利益。

风险

辩护薄弱、无法说服的通用论点、错失的策略机会、律师专业声音和信誉的丧失

真实案例

在Ex parte Allen Michael Lee案(德克萨斯州刑事上诉法院,2024年)中,一份人身保护令申请因其通用语言、异常格式模式以及未涉及案件具体事实的论证而被标记为可能由AI生成。法院注意到该文书缺乏针对案件的分析,而是依赖于几乎适用于任何案件的笼统法律命题。虽然该申请并非仅因疑似AI撰写而被驳回,但法院的审查说明了AI生成的法律文书如何损害信誉。2024年哈佛法学院对AI生成法律写作的分析发现,虽然AI可以产出语法正确、结构完整的法律文本,但它始终未能发展出赢得案件的那种策略性、说服性论证。

缓解措施

使用AI进行研究、拟定大纲和生成初稿段落。然后进行大量重写——加入你的策略远见、你对法官的了解、你对案件独特事实的理解、你的说服性声音,以及你对应强调、弱化或完全省略哪些论点的专业判断。

这里有个秘密:法官看得出来。他们多年来一直在阅读法律文书,AI生成的文书读起来就像穿着法律外衣的维基百科文章——技术上正确,全面平庸,完全没有使文书真正具有说服力的策略火花。你的客户没有聘请维基百科。他们聘请的是你。用AI搭脚手架,然后建造只有你才能建造的东西。

-- Lawra
10

不要假设今天的局限性是永久的

AI能力正以指数级速度进步。今天AI做不到的事,明天可能就能胜任。基于当前局限性而否定AI的律师可能会被快速的进步打个措手不及。

风险

职业淘汰、竞争劣势、未能适应不断发展的能力、随着行业转型而无法有效服务客户

真实案例

2022年,法律专业人士普遍认为AI不可能通过律师资格考试。2023年,GPT-4通过了统一律师资格考试,得分约在第90个百分位。2024年,根据LegalBench等机构的研究,专业法律AI模型在合同审查和法律研究等特定任务上开始超越初级律师。汤森路透报告称CoCounsel(其基于GPT-4的法律AI工具)在文件审查任务上达到了与经验丰富律师相当的准确率。变革的速度始终超过了专家的预测,能力比计划提前数年到来。

缓解措施

通过可信来源了解AI发展动态。每季度重新评估你的AI能力和工作流程。在你的执业中建立适应性——将AI胜任能力视为一项不断发展的技能,而非一次性的学习事件。投资于持续教育和实验。

2020年,'明智'的观点是AI无法处理法律的细微之处。到2023年,它在通过律师资格考试。如果你的职业策略建立在'AI做不到X'的假设上,你最好为它能做到的那天制定计划。我不是说AI会取代律师——我真心认为不会。但它绝对会取代拒绝理解它的律师。蓬勃发展的律师将是那些不再问'AI能做这个吗?'而开始问'我如何用AI把这件事做得更好?'的人。

-- Lawra

现在学习正确的做法

知道应该避免什么是必要的——但这只是全局的一半。学习最佳实践,帮助你有效、合乎伦理且充满信心地使用AI。

准备好进行结构化学习了吗? 探索学习项目 →

评论

正在加载评论...

0/2000 评论经审核后方可显示。