资源

常见问题

对律师实际提出的AI相关问题给出诚实、基于证据的回答。没有炒作,没有恐吓——只有您做出明智AI执业决策所需的信息。

质疑者

不会。AI不会取代律师,但它将从根本上改变法律执业方式,而拒绝适应的律师可能会落后于拥抱AI的律师。

以下是更细致的现实情况。AI擅长模式识别、文件分析、法律研究和初稿生成。它可以在几分钟内处理数千页文件,跨管辖区识别相关判例法,并以惊人的速度起草常规文件。GPT-4以第90百分位的成绩通过了统一律师资格考试,展示了其法律推理能力。

然而,法律实践远不止信息处理。律师行使专业判断、评估可信度、驾驭复杂的人际关系、策略性谈判,并在模糊情境中做出伦理决定。AI无法取代帮助客户度过艰难离婚的法律顾问、解读陪审团肢体语言的诉讼律师,或识别隐藏在干净合同语言背后商业风险的交易律师。

实际上正在发生的是律师角色的转变。常规的、大批量的任务——合同审查、文件摘要、基础研究——正在被AI增强,使律师能够专注于更高价值的工作:策略、辩护、客户关系和创造性问题解决。

美国律师协会现在承认技术胜任能力是律师专业义务的一部分(《示范规则》第1.1条注释8)。美国42个州已采纳这一标准。信息很明确:理解AI正在成为胜任律师的必要条件。

面临最大风险的律师不是那些将被AI取代的人。而是那些将被有效使用AI的律师所取代的人。

来源

AI对法律工作有足够的可靠性,是真正有用的,但绝对不够可靠到可以不经人工核实就使用。理解这个区别至关重要。

可靠性问题取决于具体任务。对于文件摘要、翻译、初稿生成和头脑风暴,现代AI工具能力卓越。对于需要精确准确的任务——如引用特定案例、援引法规或计算截止日期——AI仍然容易出错,包括”幻觉”,即生成听起来合理但完全捏造的信息。

2023年的Mata诉Avianca案成为了警示故事:律师提交了一份包含六个由ChatGPT生成的虚构案例引用的诉状。法院施加了制裁,该事件在整个行业引起了震动。此后,多个法院报告了类似事件。斯坦福大学和耶鲁大学的研究发现,通用AI模型以相当高的比率产生法律引用幻觉,尽管法律专用工具的表现显著更好。

关键洞察是AI可靠性不是二元的。它因工具而异(法律专用平台如CoCounsel或Harvey优于通用聊天机器人),因任务而异(摘要比引用生成更可靠),也因你对系统的提示方式而异。将AI输出视为需要专家审查的初稿——而非成品——从根本上改变了风险评估。

最有效的方法是将AI作为一个能力很强但工作始终需要你核实的研究助理。采用这种心态的律师报告了显著的生产力提升,同时维持了其执业要求的准确性标准。技术在不断改进,但专业判断仍然是不可替代的质量控制层。

来源

风险是真实的,但它们是可管理的——而完全忽视AI的风险可能更大。问题不在于是否存在风险,而在于这些风险能否被有效缓解。答案是肯定的。

律师在使用AI时面临的主要风险包括:将客户数据输入公共工具导致的保密泄露、幻觉引用和捏造的法律分析、未经核实即过度依赖AI输出、训练数据中嵌入的偏见,以及不断发展的披露义务。每一项都很严重。但没有一项是前所未有的。

律师已经每天在管理类似的风险。你核实律师助理的研究。你在提交前删除机密信息。你维护利益冲突数据库。你在工作成果发送给客户之前审查初级律师的工作。AI风险管理遵循同样的逻辑——它需要的是政策、培训和监督,而不是回避。

ABA 2024年第512号正式意见提供了明确的框架:律师可以使用生成式AI,但必须确保胜任能力、维护保密性、像监督下属一样监督技术,并就其使用与客户沟通。多个州律师协会——包括佛罗里达、加利福尼亚和纽约——发布了补充指南。NIST的AI风险管理框架提供了一种结构化的方法来识别、评估和缓解AI风险。

实用的风险缓解措施包括:使用有数据保护协议的企业级AI工具而非消费级聊天机器人、建立事务所范围内的AI使用政策、对照原始来源核实所有AI输出、对员工进行AI正确使用培训,以及紧跟你所在管辖区的披露要求。

蓬勃发展的事务所将是那些明智地管理AI风险的事务所,而不是那些完全回避AI的事务所。不作为也有其风险:效率损失、竞争劣势以及未能达到不断提升的技术胜任标准。

来源

因为AI胜任能力正在迅速成为一项专业义务、一种竞争必要和一种实际优势——而落后的代价每个月都在增加。

先从专业义务说起。ABA《示范规则》第1.1条注释8要求律师”紧跟法律及其执业的变化,包括相关技术的利益和风险”。42个州已采纳这一措辞。律师协会越来越期望律师了解AI的能力和局限性。无知不再是一种职业上的辩解——而是一种胜任能力的缺口。

然后考虑竞争现实。汤森路透报告称,采用AI工具的律师事务所正在实现可衡量的效率提升:更快的研究、更快的文件审查、更一致的初稿。客户,特别是企业客户,越来越期望他们的法律团队高效地使用技术。提供更快、更具成本效益工作的事务所赢得业务。做不到的则失去业务。

实际的优势随时间累积。即使只投入几个小时了解AI工具的律师也报告每周在常规任务上节省五到十个小时:总结证词、起草函件、进行初步研究、审查合同。收回的时间可以用于更高价值的工作、客户开发,或者仅仅是更可持续的执业节奏。

还有一个职业维度。具备AI流利度的法学院毕业生对雇主越来越有吸引力。展示AI胜任能力的资深律师在不断转型的行业中为自己赢得了领导角色。你现在培养的技能——提示词工程、AI辅助工作流程设计、AI伦理治理——将成为未来十年法律实践的基础胜任能力。

问题不在于是否学习。而在于是现在学——当学习曲线平缓且优势显著时,还是以后学——当追赶更难且行业已经继续前进时。

来源

好奇者

从通用AI助手开始,然后随着你舒适度的增长扩展到法律专用工具。最好的方法是渐进的、低风险的,并与你已经在做的任务一致。

第一层级——通用AI(免费或低成本): 从你今天就可以用于内部非机密工作的工具开始。ChatGPT(OpenAI)、Claude(Anthropic)和Gemini(Google)都是不错的起点。用它们进行头脑风暴、总结公开文件、起草内部备忘录、简化复杂语言或准备继续法律教育大纲。这些工具的基础版本免费,高级版大约每月20美元。

第二层级——带AI功能的法律研究平台: 在你对通用AI感到舒适之后,探索专门为法律工作构建的平台。Westlaw的AI辅助研究、LexisNexis Lexis+ AI和vLex的Vincent AI将AI功能与经过核实的法律数据库集成在一起,大幅降低了幻觉风险。CoCounsel(汤森路透旗下)和Harvey是专门构建的法律AI工具,正在获得显著的市场认可。这些通常需要通过你的事务所或组织进行订阅。

第三层级——专业工具: 当你的需求变得具体时,可以考虑用于合同分析(Kira Systems、Luminance)、文件审查(Relativity aiR)、法律起草(Spellbook)或执业管理(Clio的AI功能)的工具。这些工具针对特定工作流程,并与现有法律软件集成。

入门关键建议:

  • 从一个工具和一项任务开始。精通后再扩展。
  • 从低风险的内部工作开始——而非面向客户的交付物。
  • 在投入预算之前使用免费版本进行探索。
  • 在输入任何客户信息之前注意每个工具的数据隐私政策。
  • 记录什么有效、什么无效,建立你的个人操作手册。

最好的工具是你会持续实际使用的工具。从简单开始,建立信心,然后从那里扩展。

来源

费用从零到显著的企业级投资不等,取决于你的需求。好消息是,有意义的AI采用可以在几乎不花钱或完全免费的情况下开始,而且投资回报往往很快就能证明支出的合理性。

免费层级(入门阶段): ChatGPT(免费版)、Claude(免费版)、Gemini(免费版)和Microsoft Copilot提供免费的AI辅助功能。这些适合学习、实验和处理非机密任务。你可以不花一分钱就建立真正的技能和生产力习惯。

个人专业版(每月20-100美元): 高级AI订阅——ChatGPT Plus(每月20美元)、Claude Pro(每月20美元)、Gemini Advanced(每月20美元)——提供更快的响应、更强大的模型和更高的使用限额。法律专用附加功能可能需要每月50-100美元。在这些价位上,每月即使只节省一个计费小时就能为大多数执业者创造正回报。

小型事务所(每用户每月100-500美元): 法律专用AI平台如CoCounsel、Lexis+ AI和Westlaw的AI功能通常在这个范围内。它们提供经核实的法律数据库、降低的幻觉风险和更好的保密保护。一些平台提供事务所范围的许可证,可降低每用户成本。

企业级(定制定价): 大型事务所和法律部门投资于Harvey、Luminance或定制AI实施等工具,可预期年费用从数万美元到数十万美元不等,取决于规模和定制程度。

**投资回报率计算很简单。**如果一位计费费率为每小时300美元的律师使用每月100美元的AI工具每周节省五个小时,年净价值超过75,000美元。即使对时间节省进行保守估计,大多数AI投资也是令人信服的。从免费开始,证明价值,然后在商业案例最充分的地方进行投资。

来源

不需要。你不需要会编程、理解机器学习算法或拥有任何传统的”技术技能”就能在法律实践中有效使用AI。如果你能写一封清晰的邮件,你就能写出有效的AI提示词。

现代AI工具被设计为自然语言交互。你通过用通俗的语言写出指令与它们沟通——这与你每天起草动议、撰写客户信函或指导律师助理时使用的技能相同。界面是对话,不是代码。

你确实需要的是律师已经大量具备的一组技能:

**清晰的沟通。**精确表达你所需要的能力——让法律文书出色或让陪审团指示清晰的那种能力——使你成为有效的AI用户。模糊的提示词产出模糊的结果,就像模糊的指示给律师助理会产出缺乏焦点的研究一样。

**批判性思维。**你需要以评估任何来源研究的同样方式来评估AI输出:这是准确的吗?是完整的吗?引用的是真实的权威来源吗?是否涉及我特定的管辖区和事实?这是将核心法律推理应用于新的情境。

**结构化思维。**将复杂任务分解为连续步骤——每个律师在规划案件策略时都在做的事——正是你从AI获得最佳结果的方式。多步骤提示词与律师已经进行的结构化分析如出一辙。

值得培养的一项新技能是提示词工程:指导AI产出有用结果的艺术。这与其说是技术技能,不如说是一种沟通纪律。可以把它想象成学习如何向一个才华横溢但字面理解意思的研究助理布置任务——这个助理读过一切但对上下文一无所知。

Lawra的律师提示词工程指南和AI 101课程等资源专门为零技术背景的法律专业人士设计。从那里开始,你将在数小时而非数月内就能高效使用AI。

来源

大多数律师通过定期使用,可以在一到四周内达到有效的AI使用能力,并在最初几次使用中就看到有意义的成果。精通是一个持续的过程,但初始学习曲线出人意料地平缓。

**第1天(30分钟):**你可以注册一个免费的AI工具,运行你的第一个提示词,并立即看到结果。尝试让它总结一份公开的法院意见书或简化一段晦涩的监管条文。“啊哈时刻”通常在头半个小时内就会出现。

**第1周(总共1-2小时):**掌握基本的提示词结构——提供上下文、指定你希望AI扮演的角色、描述期望的输出格式——你将产出明显更好的结果。你可以处理起草内部函件、头脑风暴论点结构或创建文件核查清单等任务。

**第2-4周(每周2-3小时):**在这个阶段,大多数律师为最常见的任务建立起可靠的工作流程。你了解到哪些提示词效果好、如何迭代改进不满意的输出,以及AI在你的特定执业中哪里增加最多价值。这是生产力提升变得实际和持续的时候。

**第2-6个月:**持续改进。你建立一个个人提示词库,探索更多专业工具,并培养出AI是正确解决方案和何时不是的直觉。许多律师报告,在这个阶段AI使用变得像法律研究数据库一样自然。

哈佛商学院的一项研究发现,使用AI工具的专业人士在大约30小时的使用后达到稳定的生产力水平。对于每周投入几个小时的律师来说,这大约需要两个月。

关键因素不是学习时间而是定期练习。每天15分钟的AI使用比一个周末的研讨会教给你更多。从你经常做的一项任务开始,持续使用AI来辅助它,让你的能力自然累积。

来源

大多数客户不仅会接受AI辅助的工作——许多人已经开始期待它。客户态度的转变是推动法律行业AI采用的最强驱动力之一。

企业客户正在引领这一变革。美国企业法律顾问协会报告称,越来越多的企业法务部门正在自己使用AI或积极鼓励外部律师这样做。包括联合健康集团、沃尔玛和多家大型金融机构在内的大型企业已明确告诉其律师事务所,他们期望将AI纳入法律服务交付,作为提高效率和降低成本的手段。

个人客户可能对AI工具了解较少,但对其好处高度接受:更快的周转、更彻底的分析、更低的费用和更一致的质量。当客户了解到AI辅助的合同审查可以发现手动审查可能遗漏的问题,或者AI减少了文件审查所需的时间(和计费小时)时,反应通常是积极的。

客户接受的关键原则:

**透明度。**主动沟通你如何使用AI。解释它辅助你的工作,但每一份输出都由合格律师审查和验证。许多客户赞赏知道他们的律师使用现代工具。

**价值展示。**向客户展示具体的好处——更快的交付、更彻底的分析或成本节省。让结果说话。

**保密保证。**直接回应数据安全问题。解释你使用哪些工具、客户数据如何得到保护,以及你遵守所有保密义务。

**质量维护。**当你的工作质量提高或保持稳定而效率提升时,客户会接受AI。如果AI使你的工作质量下降,再多的解释也无法令他们满意。

对客户关系的最大风险不在于使用AI——而在于落后于使用AI提供更好服务和更低成本的竞争对手。

来源

已在使用AI

保密性是在法律实践中使用AI时最关键的考量,管理保密性需要深思熟虑的规划,而不仅仅是良好的意愿。你在《示范规则》第1.6条(或你所在管辖区的等同条款)下的义务完全适用于AI工具的使用。

**基本规则:**永远不要将机密客户信息输入AI工具,除非你已核实该工具如何处理数据并确保其满足你的职业义务。

保护保密性的实际步骤:

**了解工具的数据政策。**消费级AI工具(ChatGPT、Gemini等的免费版)可能会使用你的输入来训练未来的模型。这意味着客户信息可能影响给其他用户的回复。企业版通常提供退出选项。阅读服务条款——不仅仅是营销材料。

**使用企业级工具。**大多数主要AI供应商提供具有合同数据保护承诺的商业或企业版。这些通常包括:不使用你的数据进行训练、传输中和静态存储中的数据加密、SOC 2合规性以及数据处理协议。在使用任何工具处理客户数据之前,坚持要求这些保护措施。

**匿名化和脱敏。**当使用AI处理不需要识别详情的任务时,在输入文本之前去除客户姓名、日期、金额和其他识别信息。你通常可以从文件的匿名版本中获得同样有用的结果。

**制定事务所数据分级政策。**按敏感程度对文件进行分级,并指定每个级别批准使用的AI工具。例如:公开信息可以输入任何工具;机密信息仅限于有数据协议的企业工具;特权材料可能需要额外限制或禁止使用AI。

**获得知情同意。**ABA第512号正式意见建议与客户讨论AI使用并获得适当的同意,特别是对于敏感事项。许多事务所现在在委托协议中加入了AI使用条款。

**记录你的保障措施。**维护你的数据保护措施记录。如果有一天关于你处理机密信息的方式产生疑问,有记录的政策和程序能证明行业要求的合理注意。

来源

法律实践中的AI披露要求正在迅速发展。目前没有统一的全国标准,义务因管辖区、法院和诉讼类型而异。紧跟你的特定义务至关重要。

联邦法院: 越来越多的美国联邦地区法院采纳了要求在法院文书中披露AI使用的常设命令或地方规则。德克萨斯北区的Brantley Starr法官于2023年5月发布了最早的此类命令之一,要求律师证明AI生成的文本已由人工核实。此后,德克萨斯东区、哥伦比亚特区等地的法院也跟进了。各法院的方法有所不同——有些要求主动披露任何AI使用,有些要求证明AI输出已被审查和核实,还有一些专门针对生成式AI同时排除基本的法律研究工具。

州法院: 州级要求同样各不相同。一些州已提议或采纳了要求在文书中披露的规则;其他州则通过伦理意见而非正式规则来处理这一问题。趋势明显朝着更大透明度的方向发展。

律师协会指南: ABA第512号正式意见没有规定具体的披露措辞,但强调了律师的坦诚和胜任能力义务。多个州律师协会发布了自己的指南。总体方向很明确:宁可选择披露而非隐瞒。

实用指南:

  1. **检查你的管辖区。**审查你执业的每个法院的地方规则、常设命令和伦理意见。
  2. **有疑虑时就披露。**主动披露很少造成问题;应当披露而未披露可能导致制裁。
  3. **要具体。**描述AI是如何使用的(研究、起草、审查)并确认持牌律师已审查和核实所有内容。
  4. **关注变化。**披露要求正以加速的速度被采纳。为你的管辖区设置提醒。
  5. **记录你的过程。**保留你使用了哪些AI工具、用于哪些任务以及执行了哪些核实步骤的记录。

来源

对AI输出进行质量检查不是可选的——这是你的职业义务。ABA将AI监督比作监督下属律师:无论是谁或什么起草的,你对提交给法院或交付给客户的每一个字都负有最终责任。以下是一个系统化的方法。

第一步:核实所有引用和权威来源。 这一点没有商量余地。AI引用的每一个案例、法规、条例和二次来源都必须独立确认。检查案例是否存在、它是否如AI所说的那样、它是否已被推翻或区分适用,以及它是否来自正确的管辖区。使用成熟的法律研究平台——Westlaw、Lexis或经核实的数据库——而不是用AI来核实AI。

第二步:检查事实准确性。 AI可以自信地陈述不正确的事实。对照原始来源核实日期、金额、当事人姓名、程序历史和法规条文。特别注意数字数据和具体的法律标准。

第三步:评估法律推理。 批判性地阅读AI的分析。推理逻辑是否通顺?论证中是否有漏洞?AI是否混淆了不同管辖区的标准?是否适用了错误的法律测试?AI特别容易混合那些相似但在管辖区上有区别的法律概念。

第四步:评估完整性。 AI可能遗漏相关的权威来源、反驳论点或事实上的细微差别。问自己:对方律师会发现这个分析缺少什么?AI忽略了哪些问题?

第五步:检查偏见和语气。 审查输出中是否有无意的偏见、不恰当的语气或与语境不匹配的措辞。AI可能在需要客观分析时采用说服性语气,反之亦然。

建立一份核实清单,针对你的执业领域并持续使用。随着时间的推移,你会培养出对AI在你的领域中容易犯的错误类型的直觉。这不能替代系统化检查,但可以加速这一过程。

来源

是的,你可以使用AI辅助法院文书提交,但有每个执业者都必须了解的重要注意事项。技术是被允许的;过失则不是。

法院通常允许的: 大多数法院没有禁止在准备法院文书时使用AI。使用AI辅助研究、起草、拟定论点大纲或核查引用通常是被允许的。关键要求是持牌律师必须审查、核实并对提交给法院的一切内容承担全部责任。

法院要求的: 越来越多的法院要求明确披露AI使用。多个联邦地区的常设命令要求律师证明未使用AI,或者所有AI生成的内容已由持牌律师审查和核实。美国司法大会已考虑关于AI披露的统一联邦规则提案。检查你提交文书的每个法院的地方规则和常设命令。

会导致制裁的: 导致制裁的案件有共同特征:律师提交了未经核实的AI生成内容,包括捏造的案例引用、错误的法律标准或不存在的权威来源。在Mata诉Avianca案中,制裁不是因为使用了AI,而是因为未能核实AI的输出,以及最初未能对法院坦诚说明发生了什么。

AI辅助法院文书的最佳实践:

  1. 将AI用于初稿和结构组织,而非最终产品。
  2. 独立核实每一条引用、引语和法律命题。
  3. 通过引用检查工具(Shepard’s、KeyCite)确认所有案例仍然是有效的法律。
  4. 遵守所有适用的披露要求。
  5. 保留你的AI使用和核实过程的记录。
  6. 对任何工作成果施加同样的专业判断——如果某些内容看起来好得不真实或太过方便,就核实两遍。

底线是:AI是法院文书提交的强大起草和研究助手。你在文书上的签名意味着你已核实了每一个字。请以此为标准行事。

来源

培训你的团队使用AI需要一种结构化的方法——逐步建立信心、回应合理的担忧,并创建负责任实验的文化。最成功的培训计划有几个共同要素。

先讲”为什么”再讲”怎么做”。 在介绍任何工具之前,直接回应团队的担忧。解释为什么AI对你的执业重要、它将如何帮助(而非取代)他们,以及职业义务是什么。当人们理解目的时学习效果更好。

将培训构建为渐进层级:

第一层——基础(第1-2周): 涵盖AI是什么和不是什么、风险和伦理义务、事务所AI使用政策和批准的工具。从合伙人到行政人员,每个团队成员都应完成这一层级。保持课程简短(60-90分钟)并包含实操环节。

第二层——实用技能(第3-6周): 实操工作坊,团队成员在真实的(匿名化的)工作任务上使用批准的AI工具。从简单任务开始:总结文件、起草函件、创建核查清单。每个人应识别三到五个AI可以辅助其特定角色的任务。

第三层——整合(第2-3个月): 团队成员在导师支持下开始在日常工作流程中使用AI。建立同伴学习小组,分享什么有效。创建共享的提示词库。作为团队审查AI辅助的工作成果以建立质量标准。

第四层——高级实践(持续进行): 高级提示词工程、定制工作流程开发以及紧跟新工具和新要求。在每个业务组中指定AI推广人,作为资源和先行者。

关键培训原则:

  • **创造安全的实验环境。**害怕犯错的人不会学习。创建一个无评判的学习环境。
  • **使用真实工作案例。**抽象练习不如将AI应用于团队实际执行的任务来得有教育意义。
  • **关注代际差异。**一些资深律师可能有抵触情绪;一些初级员工可能过于自信。调整你的方法。
  • **衡量进展。**追踪采用率、生产力影响和信心水平。分享成功案例。
  • **持续更新。**AI工具和最佳实践变化迅速。安排每季度的更新课程。

来源

引领AI采用

事务所AI政策是必不可少的——不仅仅是为了风险管理,也是为了让你的团队能够自信且一致地使用AI。最好的政策清晰、实用且定期更新。以下是一个构建框架。

每份事务所AI政策都应包含的核心要素:

1. 批准的工具和平台。 明确哪些AI工具被授权用于事务所使用及其用途。区分消费级工具(限制或禁止用于客户工作)和具有适当数据保护的企业工具。包括评估和批准新工具的流程。

2. 数据分级和保密。 定义哪些类型的信息可以在哪些工具中使用。建立明确的类别:公开信息、内部信息、机密客户信息和特权材料。每个类别应有相应的AI使用规则。

3. 核实和质量控制。 规定所有AI生成的内容在用于任何面向客户或面向法院的场合之前,必须由合格律师审查和核实。指定最低核实要求(引用核查、事实核实、法律分析审查)。

4. 披露要求。 记录事务所执业的所有管辖区的披露义务。建立符合最严格适用要求的默认披露实践。提供标准披露措辞模板。

5. 客户沟通。 定义何时以及如何向客户披露AI使用。考虑在委托协议中加入AI使用条款。建立在需要时获得客户同意的规程。

6. 培训要求。 明确所有人员的强制培训要求,包括初始培训和持续更新。定义胜任能力标准。

7. 计费和AI使用。 处理AI辅助工作如何计费。许多事务所对AI加速的任务减少计费时间,反映效率提升而非按照减少了大量律师时间后仍按同一费率计费。

8. 事故响应。 建立处理AI相关错误或数据事件的程序,包括通知规程和补救步骤。

**实施建议:**从一份简洁、实用的政策开始(2-4页)。分发征求反馈。随着技术和监管格局的发展每季度更新。不要让完美成为实用的敌人——一份今天可用的政策远比六个月后的全面政策更好。

来源

法律实践中AI采用的投资回报率是令人信服的,尽管它因执业领域、事务所规模、投资水平和实施质量而异。早期采用者一致报告了正回报,数据也越来越清晰。

效率提升(最可衡量的投资回报率): 事务所报告在AI部署良好的特定任务上节省了20-50%的时间。文件审查、合同分析、法律研究和初稿生成显示了最显著的改善。汤森路透的数据表明,使用AI辅助研究工具的律师完成研究任务的速度快约30%,质量相当或更好。对于一家拥有十名律师的事务所,这可以转化为每年数千小时的回收。

收入影响: 效率提升的体现方式取决于计费模式。对于按小时计费的事务所,更快的工作意味着更多的产能(处理更多案件)或有竞争力的定价(以价值赢得业务)。对于固定费用或替代费用安排,效率提升直接体现在利润上。事务所报告AI使他们能够以有竞争力的费率承接以前无利可图的工作。

成本降低: 除了律师时间之外,AI还降低了文件处理、行政任务和初步研究的成本。一些事务所报告通过AI辅助在内部处理更多工作,将文件审查的外包成本降低了40-60%。

量化你的潜在投资回报率: 将AI工具的成本(订阅费、培训时间、实施成本)与团队节省的时间进行对比。一个实用的公式:(每位律师每周节省的小时数)x(有效小时价值)x(律师人数)x(52周)= 年价值。减去年度工具和培训成本即为净投资回报率。

**示例:**十名律师每周各节省三小时,有效价值为每小时200美元,使用每用户每月500美元的工具:年价值 = 312,000美元。年成本 = 60,000美元。净投资回报率 = 252,000美元,即投资回报超过四倍。

定性投资回报率包括工作质量提升、客户满意度提高、招聘吸引力增强、减少枯燥任务带来的职业倦怠以及竞争定位。这些更难量化,但事务所领导者认为它们同样重要。

来源

合适的AI工具取决于你事务所的执业领域、规模、现有技术栈和预算。与其推荐特定产品(产品更迭很快),不如提供一个做出明智投资决策的框架。

首先评估你的最高价值使用场景。 在评估任何工具之前,确定那些消耗最多时间、涉及最多重复性工作或提供最大质量提升机会的任务。常见的高价值目标包括:法律研究(许多律师30-50%的时间)、文件审查和分析、合同起草和审查、尽职调查以及客户函件。

任何法律AI工具的评估标准:

**数据安全和隐私。**该工具是否提供企业级保护?你的数据是否会被用于训练?你能否获得数据处理协议?这是门槛问题——如果答案不令人满意,就到此为止。

**与现有系统的集成。**该工具是否能与你当前的执业管理软件、文件管理系统和研究平台协同工作?需要单独工作流程的独立工具往往难以获得采用。

**法律专用设计与通用工具。**法律专用工具(CoCounsel、Harvey、Lexis+ AI)在法律任务上通常更可靠,幻觉风险更低。通用工具(ChatGPT、Claude)更通用但需要更仔细的核实。大多数事务所同时需要两类工具。

**定价模式和可扩展性。**了解按用户、按查询或统一费率的定价模式。按照你预期的使用量计算总成本,而不仅仅是入门价格。

**供应商稳定性和支持。**法律AI市场正在快速发展。优先选择有强大后盾、在法律领域有业绩记录和响应迅速的支持的供应商。考虑该供应商三年后是否还会存在。

分阶段投资方法:

  1. **第一阶段(第1-3个月):**免费或低成本的通用AI工具,用于内部实验和学习。
  2. **第二阶段(第3-6个月):**一到两个针对你最高价值使用场景的付费工具。在全所推广之前先在小组中运行试点项目。
  3. **第三阶段(第6-12个月):**根据试点结果扩展。谈判企业协议。整合到事务所工作流程中。
  4. **持续进行:**每季度重新评估。工具格局变化很快——今天最好的六个月后可能就不是了。

来源

在律师事务所管理AI风险需要一种系统化的方法,涵盖技术、伦理、运营和监管维度。好消息是,风险管理框架与律师已经理解的学科类似——它关乎政策、监督和记录。

识别并分类你的风险:

**准确性风险。**AI可能产出不正确的信息、捏造的引用或有缺陷的法律分析。缓解措施:强制性核实规程、质量控制清单以及使用带有经核实数据库的法律专用工具。

**保密风险。**客户数据可能通过数据保护不足的AI工具被泄露。缓解措施:具有数据处理协议的企业级工具、数据分级政策和匿名化规程。

**合规风险。**未能满足披露要求或律师协会指南。缓解措施:逐管辖区追踪AI规则、默认披露实践以及定期政策更新。

**执业过失风险。**AI辅助的错误导致客户损害。缓解措施:核实程序、适当的保险覆盖以及AI使用和审查过程的记录。咨询你的执业过失保险公司关于AI辅助工作的立场——大多数现在已明确涉及这一点。

**过度依赖风险。**员工未经充分批判性审查就信任AI输出。缓解措施:培训、核实文化以及对AI辅助工作成果的定期审计。

建立风险管理框架:

  1. **治理。**指定AI监督责任人——管理合伙人、技术委员会或专门的AI治理角色。必须有人负责这件事。
  2. **政策。**制定并维护事务所AI政策(参见我们关于制定事务所AI政策的常见问题)。确保它涵盖所有已识别的风险类别。
  3. **培训。**确保所有人员理解工具和风险。在AI培训计划中加入风险意识内容。
  4. **监控。**对AI辅助的工作进行定期审计。审查事件报告。追踪新兴的监管要求。
  5. **响应。**建立明确的程序来处理AI相关的错误或事件,包括客户通知、补救措施和保险报告。
  6. **记录。**维护政策、培训、工具评估和风险评估的记录。如果出现疑问,这些文档将保护事务所。

风险管理不是消除所有风险——而是通过深思熟虑的、有记录的实践将风险管理到可接受的水平。标准是合理性,而非完美。

来源

做决策者

已经就这一问题表态的法院之间正在形成的共识是——是的,应当允许AI辅助的文书提交,但需要适当的保障措施。一刀切的禁止既不切实际,也可以说是适得其反的,而不加监督的不受限使用则对诉讼程序的完整性构成真实风险。

为什么允许AI辅助文书提交是合理的:

法律起草中的AI辅助存在于一个光谱上。在一端,律师一直在使用技术辅助工作——文字处理器、拼写检查器、法律研究数据库、文件组装工具。生成式AI是这些工具的演进,而非一个根本不同的类别。完全禁止AI使用几乎不可能执行,而且会使你的管辖区与行业发展方向相悖。

此外,AI可以通过使律师(特别是法律援助组织)更高效地服务更多客户来改善司法准入。禁止AI工具可能对资源不足的当事人及其律师造成不成比例的损害。

需要考虑的保障措施:

**披露要求。**要求律师在文书中附上证明,声明是否使用了AI,如果使用了,所有内容均已由持牌律师审查和核实。许多法院现在使用要求律师确认已核实所有引用和法律命题的证明措辞。

**律师责任。**强调签名律师对每份文书承担全部职业责任,无论文书是如何准备的。这不是一个新原则——无论工作是由律师助理、初级律师还是AI工具起草的,这一原则同样适用。

**制裁框架。**现有的制裁规则(Rule 11或各州的等同规定)已经为处理包含捏造引用或无依据主张的文书提供了框架,无论这些内容是否由AI生成。一些法院发现在常设命令中特别提及AI有助于确保律师理解其义务。

美国全国州法院中心和联邦司法中心都已发布指南,帮助法官制定适当的方法。关键原则:监管文书的质量和准确性,而非准备文书所使用的工具。

来源

评估AI生成的证据是司法实践中最复杂的新兴挑战之一。它要求在不断发展的技术格局中调整既有的证据原则,同时维护可靠性和公正性的基本目标。

真实性挑战: 传统的证据鉴真依赖于建立保管链、识别来源并确认证据确实是其声称的内容(《联邦证据规则》第901条或州等同条款)。AI生成的内容使这变得复杂,因为它可以以越来越高的精确度被创建或篡改。深度伪造音频和视频、AI生成的文件以及合成数据在表面审查下可能显得真实。

评估框架:

1. 出处和保管链。 这份证据是如何创建或获取的?如果AI工具参与了证据的生成、处理或分析,了解使用了哪些工具、什么输入和什么流程至关重要。要求提供创建或处理管道的详细文档。

2. 鉴真方法。 考虑是否需要关于AI检测的专家证词。检测AI生成内容的取证工具正在改进,但尚不完全可靠。提出证据的一方应承担证明真实性的举证责任,特别是当涉嫌或怀疑有AI参与时。

3. Daubert(或Frye)标准下的可靠性。 当AI分析产出证据时——例如AI辅助的金融数据模式识别,或AI生成的重建——适用你所在管辖区的科学和技术证据标准。考虑AI方法论是否被普遍接受、错误率如何、是否经过同行评审,以及具体应用是否适当。

4. 完整性和上下文。 AI工具可以选择性地分析数据,产出误导性的结果。评估证据是否反映了完整的数据集还是选择性处理的子集。

5. 偏见性影响。 AI生成的可视化、重建或摘要对陪审团可能特别具有说服力。根据第403条考虑其证明价值是否被不公正偏见的风险大幅抵消。

**实际步骤:**要求披露证据准备中的AI参与情况,允许对方当事人质疑AI方法论,必要时考虑指定技术专家,并紧跟不断发展的取证检测能力。

来源

设计有效的AI披露要求需要在透明度与实用性之间取得平衡。目标是确保诉讼程序的完整性,同时不创建过于繁琐的要求——这些要求要么抑制合法的AI使用,要么被证明不可能执行。

当前使用的方法:

**证明模式。**最常见的方法。要求律师在文书中附上证明,声明:(a)是否使用了生成式AI来准备文书;以及(b)如果使用了,所有AI生成的内容,包括引用、事实主张和法律分析,均已由持牌律师审查和核实。这与现有的Rule 11证明框架相呼应,增加了最少的负担同时确保了问责。

**使用即披露模式。**仅在使用了AI时要求披露,说明使用了哪些工具以及用于哪些任务(研究、起草、分析)。这提供了透明度而不要求每份文书都附上否定性声明。

**统一证明模式。**一些法院要求一份常设证明,说明所有文书符合AI核实要求,而不要求每份文书都进行具体披露。这减少了文书工作但提供了较少的可见度。

关键设计考量:

**明确定义范围。**什么构成触发披露的”AI使用”?通用写作辅助?拼写检查和语法工具?带有AI功能的法律研究平台?最实用的方法关注用于实质性内容创建的生成式AI,而非常规技术工具。

**保持比例。**披露要求应与风险成比例。要求每份常规动议都进行详细的AI审计会产生不必要的摩擦。将披露要求集中在准确性最为关键的实质性文书上。

**确保可执行性。**要求在清晰、简单且与现有制裁机制一致时效果最好。将AI披露与Rule 11(或各州等同规定)挂钩的法院可以利用成熟的执行工具。

**考虑自行代理的当事人。**为律师设计的披露要求可能需要为自行代理的当事人进行调整,他们可能以不同方式依赖AI工具,且有不同的能力预期。

推荐的证明措辞: “签名人在此证明,在准备本文书过程中使用了生成式人工智能的范围内,所有内容——包括引用、引语和法律分析——均已由签名律师独立审查和核实,签名律师对本文书的准确性和完整性承担全部职业责任。”

这一措辞简洁、可执行,且不因具体使用的AI工具而有所区分,确保其随着技术发展仍然适用。

来源

还有问题?

回答AI问题的最佳方式是亲身体验。试试快速上手,探索学习路径,或深入了解挑战和风险以建立您自己的知情观点。

准备好进行结构化学习了吗? 探索学习项目 →

评论

正在加载评论...

0/2000 评论经审核后方可显示。