La orden ejecutiva del presidente Biden estableció la política federal de IA más completa de EE.UU., dirigiendo más de 50 acciones a través de agencias federales. Requiere que los desarrolladores de sistemas de IA poderosos compartan resultados de pruebas de seguridad con el gobierno y establece estándares para la seguridad de la IA.
Alcance
Acción ejecutiva amplia que ordena a las agencias federales establecer estándares de seguridad de IA, requerir informes de empresas que desarrollan modelos poderosos de IA, proteger derechos de los consumidores, promover la equidad y apoyar a los trabajadores afectados por la IA.
Impacto en la Práctica Legal
Crea nuevas obligaciones de cumplimiento para desarrolladores de IA, particularmente en torno a pruebas y reportes de seguridad. Los abogados deben asesorar a sus clientes sobre los requisitos cambiantes de las agencias federales y posibles acciones de aplicación. Aumenta la demanda de asesoría en gobernanza y regulación de IA.
Impacto en la Práctica Empresarial
Las empresas que desarrollan modelos fundacionales de doble uso deben reportar resultados de pruebas de seguridad al gobierno. Los estándares de adquisición federal crean presión de mercado para el desarrollo responsable de IA. Las agencias están dirigidas a usar IA para eficiencia gubernamental mientras gestionan riesgos.
Impacto en el Common Law
Aunque las órdenes ejecutivas no crean ley vinculante, dirigen la elaboración de normas por agencias que sí lo hace. Las directivas de la orden sobre estándares y requisitos de pruebas de seguridad de IA están dando forma al derecho administrativo a través de regulaciones y documentos de orientación de las agencias.
Aspectos Positivos
- Alcance integral que cubre seguridad, protección, equidad y defensa del consumidor
- Aprovecha la Ley de Producción de Defensa para reportes de seguridad — mecanismo real de aplicación
- Aborda el impacto de la IA en los trabajadores y promueve consideraciones de equidad
- Dirige el desarrollo de estándares de IA a través de NIST y otras agencias especializadas
Preocupaciones
- Las órdenes ejecutivas pueden ser revertidas por administraciones posteriores, creando incertidumbre regulatoria
- Depende fuertemente de la implementación por agencias, que puede ser lenta o inconsistente
- No tiene la fuerza de la legislación — poder de permanencia limitado
- Puede ser vista como extralimitación por actores de la industria y partidos políticos opositores
Nuestras Opiniones
Esta orden ejecutiva fue el intento más serio del gobierno de EE.UU. en gobernanza de IA hasta la fecha. Su verdadero valor no está en las directivas específicas — muchas de las cuales pueden no sobrevivir transiciones políticas — sino en establecer que la seguridad de la IA es una prioridad federal y normalizar la supervisión gubernamental del desarrollo de IA.Lawra (La Moderada)
Una orden ejecutiva es una promesa escrita en papel que el próximo presidente puede tirar a la basura. Aunque las directivas son buenas sobre el papel, necesitamos legislación real con fuerza de ley. Depender de acciones ejecutivas para algo tan importante es pedir un vaivén regulatorio.Lawrena (La Escéptica)
Lo que me gusta de esta orden es su equilibrio — reconoce los beneficios de la IA mientras aborda los riesgos. Es lo suficientemente flexible para evolucionar con la tecnología. La clave es la implementación: si las agencias trabajan con la industria en lugar de contra ella, esto podría ser un modelo de gobernanza de IA responsiva.Lawrelai (La Entusiasta)
Esta orden ejecutiva encarna la filosofía correcta — el gobierno estableciendo las reglas del juego en lugar de elegir ganadores. La invocación de la Ley de Producción de Defensa es ingeniosa pero preocupante: usar poderes de emergencia para la gobernanza de IA sienta un precedente. Lo que valoro es el enfoque en estándares a través del NIST en lugar de reglas prescriptivas. La gobernanza de IA debería habilitar la innovación manteniendo la rendición de cuentas. La vulnerabilidad política de las órdenes ejecutivas es en realidad una virtud, no un defecto — mantiene la regulación receptiva a la realidad.Carlos Miranda Levy (El Curador)
Panorama General
La Orden Ejecutiva 14110, firmada el 30 de octubre de 2023, representa la acción federal más amplia de EE.UU. sobre gobernanza de IA. Dirige más de 50 acciones específicas a través de agencias federales, cubriendo pruebas de seguridad de IA, equidad, protección al consumidor, privacidad, apoyo a trabajadores, uso gubernamental de IA y cooperación internacional.
Disposiciones Clave
La disposición más significativa de la orden invoca la Ley de Producción de Defensa para requerir que las empresas que desarrollan modelos fundacionales que representen riesgos a la seguridad nacional notifiquen al gobierno y compartan resultados de pruebas de seguridad. También dirige al NIST a desarrollar estándares de seguridad de IA, requiere que las agencias aborden la discriminación algorítmica y establece directrices para la adquisición federal de sistemas de IA.
Estado Actual
Las órdenes ejecutivas están sujetas al ciclo político. El impacto a largo plazo de la orden depende de cuán completamente las agencias implementen sus directivas y si las administraciones posteriores mantienen, modifican o revocan sus disposiciones. Varias agencias ya han comenzado a elaborar normativas basadas en las directivas de la orden.
Fuentes
- Orden Ejecutiva 14110 — Desarrollo y Uso Seguro, Protegido y Confiable de la Inteligencia Artificial — La Casa Blanca (2023-10-30)
- Hoja Informativa: El Presidente Biden Emite Orden Ejecutiva sobre IA — La Casa Blanca (2023-10-30)
Explora la Jurisprudencia
Descubre cómo los tribunales están aplicando el derecho a la IA en la práctica. Desde sanciones emblemáticas hasta batallas por derechos de autor en curso, estos casos están creando el precedente que dará forma al futuro.
¿Listo para un aprendizaje estructurado? Explora el Programa de Aprendizaje →
Lawra
Lawrena
Lawrelai
Carlos Miranda Levy
Comentarios
Cargando comentarios...