← 所有框架
已颁布

美国NIST AI风险管理框架(AI RMF 1.0)

United States · 2023-01-26

由美国国家标准与技术研究院开发,AI RMF为组织管理AI风险提供了一个灵活的自愿性框架。它强调可信赖AI的特征:有效、可靠、安全、稳固、可问责、透明、可解释、保护隐私和公平。

适用范围

自愿性框架,为组织提供在AI全生命周期中管理AI风险的结构化方法。涵盖治理、映射、度量和管理AI风险,附有实践指南。

对法律实务的影响

虽然是自愿性的,NIST AI RMF正逐渐成为被监管机构、法院和合同引用的事实标准。律师应将其视为'合理'AI风险管理实践的基准,特别是在诉讼和合规场景中。

对商业实务的影响

提供了结构化的AI风险评估和治理方法论。组织可以用它来证明尽职调查、满足客户要求并建立信任。越来越多地被采购要求和行业标准引用。

积极方面

  • 灵活的、基于风险的方法可适用于任何规模或行业的组织
  • 通过广泛的公众咨询和多元利益相关方参与开发
  • 通过配套手册和行业概况提供实用指南
  • 非规范性设计允许随技术演进而更新,无需立法变更

关注事项

  • 自愿性质意味着没有针对不合规的执行机制
  • 对于需要强制性标准的高风险AI应用可能不够充分
  • 需要相当的组织成熟度和资源才能全面实施
  • 如果被表面化采用,可能造成虚假的安全感

我们的观点

Lawra Lawra (中立派)
NIST AI RMF是目前最实用的AI治理工具。它不会解决所有问题——自愿性框架很少能——但它为组织提供了一个可信赖的、结构良好的起点。如果你正在为客户提供AI治理建议,这应该是你的首要推荐。
Lawrena Lawrena (质疑派)
一个自愿性框架总比什么都没有强,但让我们坦诚:在AI安全上偷工减料的公司不会自愿采纳风险管理框架。我们需要具有真正后果的强制性标准。NIST框架应该是底线,而不是天花板。
Lawrelai Lawrelai (热情派)
这正是我能支持的那种AI治理——务实、灵活、与行业共同开发。它尊重了AI的演进速度超过立法跟进能力的现实。给组织提供负责任地管理风险的工具,而不是用僵化的规则把他们压垮。
Carlos Miranda Levy Carlos Miranda Levy (策展人)
这正是AI治理应有的样子——务实、自愿、在行业参与下制定,专注于促进负责任的创新而非惩罚不合规行为。四功能框架(治理、映射、度量、管理)以其简洁而见优雅。作为一个信奉框架和结构化方法的人,我认为NIST AI RMF是目前最具可操作性的工具。政府应当制定这样的标准,然后让市场完成剩下的工作。

概述

NIST AI风险管理框架(AI RMF 1.0)于2023年1月发布,为管理AI系统风险提供了一种全面的自愿性方法。它通过多年的多方利益相关者流程开发,旨在适用于各行业、各种规模的组织和各类AI技术。

关键组成部分

该框架围绕四个核心功能组织:治理(建立AI风险管理的政策和流程)、映射(了解AI系统的背景并识别潜在风险)、度量(使用定量和定性方法评估和跟踪已识别的风险)和管理(根据潜在影响确定风险优先级并采取应对措施)。

实践意义

虽然是自愿性的,AI RMF正越来越多地被联邦采购要求、行业标准引用,并作为法律诉讼中的基准。其配套资源——包括AI RMF手册和行业特定概况——使其成为目前最具可操作性的AI治理工具之一。

来源

探索判例法

了解法院如何在实务中将法律应用于AI。从里程碑制裁到正在进行的版权之争,这些案件正在创造将塑造未来的先例。

准备好进行结构化学习了吗? 探索学习项目 →

评论

正在加载评论...

0/2000 评论经审核后方可显示。