← 所有框架
已颁布

美国第14110号行政命令:安全、可靠和可信赖的AI

United States · 2023-10-30

拜登总统的行政命令确立了最全面的美国联邦AI政策,指示联邦机构采取50多项行动。它要求开发强大AI系统的企业向政府分享安全测试结果,并建立AI安全和安保标准。

适用范围

广泛的行政行动,指示联邦机构建立AI安全标准、要求开发强大AI模型的公司提交报告、保护消费者权益、促进公平、并支持受AI影响的劳动者。

对法律实务的影响

为AI开发者创造了新的合规义务,特别是在安全测试和报告方面。律师必须就不断演变的联邦机构要求和潜在执法行动向客户提供建议。增加了对AI治理和监管法律顾问的需求。

对商业实务的影响

开发双用途基础模型的公司必须向政府报告安全测试结果。联邦采购标准为负责任的AI开发创造了市场压力。各机构被指示在管理风险的同时利用AI提高政府效率。

对普通法的影响

虽然行政命令不直接创设具有约束力的法律,但它们指导机构制定规则,而规则具有法律效力。该命令关于AI安全标准和测试要求的指示正在通过机构法规和指导文件塑造行政法。

积极方面

  • 涵盖安全、安保、公平和消费者保护的全面范围
  • 援引《国防生产法》进行安全报告——提供了真正的执行机制
  • 关注AI对劳动者的影响并推进公平考量
  • 指导通过NIST和其他专家机构开发AI标准

关注事项

  • 行政命令可被后任政府撤销,造成监管不确定性
  • 严重依赖机构执行,执行可能缓慢或不一致
  • 不具有立法的法律效力——持久性有限
  • 可能被行业利益相关方和反对党视为越权

我们的观点

Lawra Lawra (中立派)
这项行政命令是美国政府迄今为止在AI治理方面最严肃的尝试。其真正价值不在于具体指示——其中许多可能无法在政治交替中存续——而在于确立了AI安全是联邦优先事项,并使政府对AI开发的监督正常化。
Lawrena Lawrena (质疑派)
行政命令是写在纸上的承诺,下一任总统可以随手丢弃。虽然这些指示在纸面上是好的,但我们需要具有法律效力的实际立法。在如此重要的事情上依赖行政行动,就是在自找监管的反复无常。
Lawrelai Lawrelai (热情派)
我欣赏这项命令的平衡性——它承认AI的利益同时也正视风险。它足够灵活,可以随技术发展而演变。关键在于执行:如果机构与行业合作而非对抗,这可能成为响应式AI治理的典范。
Carlos Miranda Levy Carlos Miranda Levy (策展人)
这项行政命令体现了正确的理念——政府搭建竞技场,而不是挑选赢家。援引《国防生产法》虽然巧妙但也令人担忧:用紧急权力来治理AI开了一个先例。我欣赏的是它通过NIST来推动标准化,而非制定限制性的规定。AI治理应当在促进创新的同时保持问责。行政命令的政治脆弱性实际上是一个优点而非缺陷——它让监管能够与现实保持同步。

概述

第14110号行政命令于2023年10月30日签署,代表了美国联邦在AI治理方面最广泛的行动。它指示联邦机构采取50多项具体行动,涵盖AI安全测试、公平、消费者保护、隐私、劳动者支持、政府AI使用和国际合作。

关键条款

该命令最重要的条款援引《国防生产法》,要求开发对国家安全构成风险的基础模型的公司通知政府并分享安全测试结果。它还指示NIST制定AI安全标准,要求各机构解决算法歧视问题,并建立联邦AI系统采购指南。

当前状态

行政命令受制于政治周期。该命令的长期影响取决于各机构执行其指示的力度,以及后续政府是否会维持、修改或撤销其条款。多个机构已根据该命令的指示开始制定规章。

来源

探索判例法

了解法院如何在实务中将法律应用于AI。从里程碑制裁到正在进行的版权之争,这些案件正在创造将塑造未来的先例。

准备好进行结构化学习了吗? 探索学习项目 →

评论

正在加载评论...

0/2000 评论经审核后方可显示。