← Todos los Marcos
Vigente

Orden Ejecutiva 14110 de EE.UU. sobre IA Segura y Confiable

Estados Unidos · 2023-10-30

La orden ejecutiva del presidente Biden estableció la política federal de IA más completa de EE.UU., dirigiendo más de 50 acciones a través de agencias federales. Requiere que los desarrolladores de sistemas de IA poderosos compartan resultados de pruebas de seguridad con el gobierno y establece estándares para la seguridad de la IA.

Alcance

Acción ejecutiva amplia que ordena a las agencias federales establecer estándares de seguridad de IA, requerir informes de empresas que desarrollan modelos poderosos de IA, proteger derechos de los consumidores, promover la equidad y apoyar a los trabajadores afectados por la IA.

Impacto en la Práctica Legal

Crea nuevas obligaciones de cumplimiento para desarrolladores de IA, particularmente en torno a pruebas y reportes de seguridad. Los abogados deben asesorar a sus clientes sobre los requisitos cambiantes de las agencias federales y posibles acciones de aplicación. Aumenta la demanda de asesoría en gobernanza y regulación de IA.

Impacto en la Práctica Empresarial

Las empresas que desarrollan modelos fundacionales de doble uso deben reportar resultados de pruebas de seguridad al gobierno. Los estándares de adquisición federal crean presión de mercado para el desarrollo responsable de IA. Las agencias están dirigidas a usar IA para eficiencia gubernamental mientras gestionan riesgos.

Impacto en el Common Law

Aunque las órdenes ejecutivas no crean ley vinculante, dirigen la elaboración de normas por agencias que sí lo hace. Las directivas de la orden sobre estándares y requisitos de pruebas de seguridad de IA están dando forma al derecho administrativo a través de regulaciones y documentos de orientación de las agencias.

Aspectos Positivos

  • Alcance integral que cubre seguridad, protección, equidad y defensa del consumidor
  • Aprovecha la Ley de Producción de Defensa para reportes de seguridad — mecanismo real de aplicación
  • Aborda el impacto de la IA en los trabajadores y promueve consideraciones de equidad
  • Dirige el desarrollo de estándares de IA a través de NIST y otras agencias especializadas

Preocupaciones

  • Las órdenes ejecutivas pueden ser revertidas por administraciones posteriores, creando incertidumbre regulatoria
  • Depende fuertemente de la implementación por agencias, que puede ser lenta o inconsistente
  • No tiene la fuerza de la legislación — poder de permanencia limitado
  • Puede ser vista como extralimitación por actores de la industria y partidos políticos opositores

Nuestras Opiniones

Lawra Lawra (La Moderada)
Esta orden ejecutiva fue el intento más serio del gobierno de EE.UU. en gobernanza de IA hasta la fecha. Su verdadero valor no está en las directivas específicas — muchas de las cuales pueden no sobrevivir transiciones políticas — sino en establecer que la seguridad de la IA es una prioridad federal y normalizar la supervisión gubernamental del desarrollo de IA.
Lawrena Lawrena (La Escéptica)
Una orden ejecutiva es una promesa escrita en papel que el próximo presidente puede tirar a la basura. Aunque las directivas son buenas sobre el papel, necesitamos legislación real con fuerza de ley. Depender de acciones ejecutivas para algo tan importante es pedir un vaivén regulatorio.
Lawrelai Lawrelai (La Entusiasta)
Lo que me gusta de esta orden es su equilibrio — reconoce los beneficios de la IA mientras aborda los riesgos. Es lo suficientemente flexible para evolucionar con la tecnología. La clave es la implementación: si las agencias trabajan con la industria en lugar de contra ella, esto podría ser un modelo de gobernanza de IA responsiva.
Carlos Miranda Levy Carlos Miranda Levy (El Curador)
Esta orden ejecutiva encarna la filosofía correcta — el gobierno estableciendo las reglas del juego en lugar de elegir ganadores. La invocación de la Ley de Producción de Defensa es ingeniosa pero preocupante: usar poderes de emergencia para la gobernanza de IA sienta un precedente. Lo que valoro es el enfoque en estándares a través del NIST en lugar de reglas prescriptivas. La gobernanza de IA debería habilitar la innovación manteniendo la rendición de cuentas. La vulnerabilidad política de las órdenes ejecutivas es en realidad una virtud, no un defecto — mantiene la regulación receptiva a la realidad.

Panorama General

La Orden Ejecutiva 14110, firmada el 30 de octubre de 2023, representa la acción federal más amplia de EE.UU. sobre gobernanza de IA. Dirige más de 50 acciones específicas a través de agencias federales, cubriendo pruebas de seguridad de IA, equidad, protección al consumidor, privacidad, apoyo a trabajadores, uso gubernamental de IA y cooperación internacional.

Disposiciones Clave

La disposición más significativa de la orden invoca la Ley de Producción de Defensa para requerir que las empresas que desarrollan modelos fundacionales que representen riesgos a la seguridad nacional notifiquen al gobierno y compartan resultados de pruebas de seguridad. También dirige al NIST a desarrollar estándares de seguridad de IA, requiere que las agencias aborden la discriminación algorítmica y establece directrices para la adquisición federal de sistemas de IA.

Estado Actual

Las órdenes ejecutivas están sujetas al ciclo político. El impacto a largo plazo de la orden depende de cuán completamente las agencias implementen sus directivas y si las administraciones posteriores mantienen, modifican o revocan sus disposiciones. Varias agencias ya han comenzado a elaborar normativas basadas en las directivas de la orden.

Fuentes

Explora la Jurisprudencia

Descubre cómo los tribunales están aplicando el derecho a la IA en la práctica. Desde sanciones emblemáticas hasta batallas por derechos de autor en curso, estos casos están creando el precedente que dará forma al futuro.

¿Listo para un aprendizaje estructurado? Explora el Programa de Aprendizaje →

Comentarios

Cargando comentarios...

0/2000 Los comentarios son moderados antes de publicarse.