Escenario de la Simulación
Es miércoles, 10:00 AM. Diana Rivera ha convocado una reunión de revisión de emergencia en la sala de conferencias principal. La reunión con el cliente potencial fue pospuesta con una excusa vaga. Sarah Park ha impreso el memorando generado por IA junto con su verificación en Westlaw que muestra tres citas fabricadas y un análisis estatutario confuso. Se le ha pedido a Marcus Chen que traiga su computadora portátil con el historial de conversación con la IA. El Dr. James Whitfield ha preparado un resumen de una página de las recomendaciones de gobernanza de IA que envió hace dos meses y que nunca fueron implementadas. Todos en la sala saben que esto pudo haber sido un desastre. La pregunta ahora es qué sucede después.
Actores y Roles
modules.m3.simulation.stakeholdersSubtitle
Diana Rivera — Socia Directora
Perfil
Promovió la iniciativa de IA, ahora enfrentando las consecuencias de una implementación inadecuada. Debe equilibrar la rendición de cuentas con la moral y la continuación de la adopción de IA por parte de la firma.
Objetivos
- Determinar la rendición de cuentas apropiada sin convertir a nadie en chivo expiatorio
- Establecer salvaguardas inmediatas para prevenir la recurrencia
- Preservar el impulso de adopción de IA de la firma mientras se restaura la confianza
Restricciones
Debe reportar al asegurador de negligencia profesional la próxima semana. Sabe que reaccionar exageradamente podría hacer que el personal abandone las herramientas de IA por completo, mientras que una reacción insuficiente podría llevar a un incidente real.
Información Exclusiva
Diana ha recibido un correo electrónico anónimo de otro paralegal indicando que memorandos generados por IA han sido enviados a clientes en al menos otros dos asuntos sin ninguna verificación de un abogado. Aún no ha confirmado si esto es cierto.
Marcus Chen — Paralegal Senior
Perfil
El paralegal que generó el memorando. Experimentado, sobrecargado de trabajo y profundamente avergonzado. Sabe que la herramienta de IA fue usada exactamente como la mayoría del personal la ha estado usando.
Objetivos
- Demostrar que la falla del flujo de trabajo es sistémica, no individual
- Proteger su posición profesional y empleo continuado
- Abogar por expectativas realistas de carga de trabajo junto con los nuevos protocolos de IA
Restricciones
Sabe que admitir la naturaleza sistémica del problema puede implicar a colegas, pero guardar silencio lo convierte en el único chivo expiatorio.
Información Exclusiva
Marcus tiene registros de chat que muestran que la propia documentación de la herramienta de IA recomienda 'siempre verificar las citas legales contra bases de datos autorizadas' — una advertencia que no fue incluida en los materiales de capacitación de la firma. También sabe que otros dos paralegales han estado haciendo lo mismo.
Sarah Park — Abogada Asociada
Perfil
La abogada que asignó el memorando y detectó los errores. Aliviada pero consciente de su propio papel en la falla de delegación. Bajo presión de los socios para maximizar la eficiencia impulsada por IA.
Objetivos
- Establecer que la delegación fue razonable pero la brecha de verificación no lo fue
- Impulsar protocolos claros de asignación que especifiquen jurisdicción, profundidad y expectativas de verificación
- Abordar la cultura de presión de tiempo que incentiva los atajos
Restricciones
El socio al que reporta le ha dicho explícitamente a los asociados que 'dejen que la IA haga el primer borrador y solo lo limpien.' Plantear esto podría dañar su posición.
Información Exclusiva
Sarah descubrió durante su verificación que uno de los casos fabricados era en realidad un nombre de caso real pero con hechos y fallos completamente diferentes. La IA había tomado una cita real y le había adjuntado contenido fabricado — una forma más sofisticada de alucinación que la simple fabricación.
Dr. James Whitfield — Líder de Aseguramiento de Calidad
Perfil
El especialista en gobernanza de IA de la firma que ha estado abogando por protocolos más estrictos desde que fue contratado. Tiene una propuesta integral de gobernanza que fue enviada pero nunca revisada.
Objetivos
- Usar este incidente para implementar el marco de gobernanza que ha estado proponiendo
- Establecer un proceso formal de revisión y reporte de incidentes de IA
- Asegurar presupuesto y autoridad para evaluaciones continuas de competencia en IA
Restricciones
Debe presentar las reformas como constructivas en lugar de punitivas para mantener la aceptación del personal. Sabe que protocolos excesivamente onerosos serán ignorados igual que las directrices originales.
Información Exclusiva
James ha comparado las prácticas de IA de la firma con las de 15 otras firmas de tamaño similar. Rivera & Goldstein se ubica en el cuartil inferior de madurez de gobernanza de IA. También descubrió que el proveedor de IA empresarial actualizó recientemente sus términos de servicio para incluir una cláusula de limitación de responsabilidad que la firma no ha revisado.
Reglas
Duración
60-90 minutos en total, divididos en tres fases
Comunicación
Formato de discusión abierta; Diana preside la reunión y gestiona el orden de intervención. Los participantes pueden dirigirse entre sí directamente pero deben permanecer en su personaje.
Método de Decisión
La reunión debe producir tres resultados escritos: (1) una determinación de responsabilidad, (2) cambios de proceso inmediatos efectivos hoy, y (3) un plan de acción de 30 días. Diana tiene autoridad de decisión final pero debe obtener consenso de al menos otros dos participantes.
Fases
Revisión del Incidente (20 minutos)
Diana abre la reunión y pide a cada participante que presente su relato de lo sucedido. Marcus describe su proceso, incluyendo el prompt exacto que usó. Sarah explica cómo detectó los errores y qué específicamente estaba mal. James presenta su evaluación de gobernanza. Cada persona tiene 4-5 minutos. Sin interrogatorio cruzado aún — esta fase se trata de establecer los hechos.
Análisis de Causa Raíz y Responsabilidad (25 minutos)
Discusión abierta sobre qué salió mal y quién tiene responsabilidad. Los participantes pueden revelar información exclusiva estratégicamente. Diana debe navegar entre la responsabilidad individual y la reforma sistémica. Tensiones clave: ¿Fue culpa de Marcus por no verificar? ¿Culpa de Sarah por una asignación vaga? ¿Culpa de Diana por promover la adopción sin gobernanza? ¿Culpa de la firma por ignorar las propuestas de James?
Resolución y Reforma (20 minutos)
El grupo debe acordar tres entregables: una determinación de responsabilidad (consecuencias, si las hay, para individuos), cambios de proceso inmediatos (qué cambia hoy) y un plan de acción de 30 días (qué implementará la firma dentro de un mes). Cada participante defiende sus prioridades. Diana debe forjar el consenso y tomar decisiones finales.
modules.m3.simulation.simVariationsTitle
- ¿Qué pasaría si el memorando hubiera llegado al cliente? Reproduce el escenario asumiendo que Sarah no detectó los errores y el memorando fue reenviado al cliente potencial, quien luego contrató a la firma basándose en la evaluación inflada. ¿Cómo cambia el cálculo de responsabilidad?
- ¿Qué pasaría si la denuncia anónima es cierta? Durante la Fase 2, Diana revela el correo electrónico anónimo sobre memorandos de IA no verificados enviados a clientes en otros asuntos. El problema es sistémico. ¿Cómo responde el grupo cuando el incidente ya no es aislado?
- ¿Qué pasaría si Marcus se defiende? Durante la discusión de responsabilidad, Marcus revela que el socio que presiona a los asociados para maximizar la eficiencia con IA una vez le dijo directamente: 'Solo deja que la IA se encargue, para eso estamos pagando.' ¿Cómo cambia esto el análisis de responsabilidad?
Debriefing
modules.m3.simulation.debriefSubtitle
Sobre Diseño de Prompts
- ¿Qué elementos específicos del prompt original de Marcus contribuyeron a que la IA produjera resultados fabricados?
- ¿Cómo habrías estructurado el prompt de manera diferente? Escribe tu versión mejorada.
- ¿Es realista esperar que cada paralegal sea un experto en ingeniería de prompts? Si no, ¿qué soluciones institucionales ayudan?
- ¿Cómo distingues entre un resultado de IA que es incorrecto debido a un mal prompt versus uno que es incorrecto a pesar de un buen prompt?
Sobre Supervisión y Verificación
- ¿El producto de trabajo generado por IA debería estar sujeto a estándares de verificación diferentes al producto de trabajo generado por humanos? ¿Por qué sí o por qué no?
- ¿Cómo incorporas la verificación en los flujos de trabajo sin hacer que las herramientas de IA sean más lentas que hacer la investigación manualmente?
- ¿Qué papel debe jugar el abogado que asigna el trabajo en especificar cómo se debe usar la IA para tareas delegadas?
Sobre Cultura Organizacional
- ¿Cómo contribuye una cultura de presión de tiempo y métricas de eficiencia a los riesgos relacionados con la IA?
- ¿Cuál es el equilibrio correcto entre fomentar la experimentación con IA y hacer cumplir los controles de calidad?
- ¿Deberían las firmas medir la calidad de los resultados de IA tan rigurosamente como miden las tasas de adopción de IA?
- ¿Cómo creas seguridad psicológica para reportar errores y casi-incidentes relacionados con IA?
Sobre Tu Propia Práctica
- ¿Alguna vez has usado una herramienta de IA para investigación sin verificar cada cita? ¿Qué te hizo confiar en el resultado?
- ¿Tu organización tiene protocolos claros para la investigación jurídica asistida por IA? Si no, ¿qué propondrías?
- ¿Cuál es el hábito más importante de ingeniería de prompts que habría prevenido este incidente?
- Nombra un cambio concreto que implementarás en tu propio flujo de trabajo dentro de la próxima semana.
Referencias y Fuentes
Estándares Profesionales
- Regla Modelo 5.3 de la ABA — Responsabilidades Respecto a Asistentes No Abogados (supervisión de trabajo asistido por IA)
- Opinión Formal 512 de la ABA (2024) — IA Generativa y los deberes de competencia, confidencialidad y supervisión
- Orientación Práctica del Colegio de Abogados del Estado de California sobre IA para Abogados (2024) — Requisitos de verificación y supervisión
Ingeniería de Prompts y Gobernanza de IA
- Legal Prompt Engineering: Principles for Reliable AI-Assisted Research — Stanford CodeX (2024)
- AALL Guidelines for the Use of AI in Legal Research (2024)
- International Legal Technology Association — AI Governance Framework for Law Firms (2024)
¿Listo para Ejecutar Esta Simulación?
Esta simulación está diseñada para facilitación guiada como parte del Programa de Aprendizaje de Lawra. Solicita una sesión con asignación de roles, ejercicios de ingeniería de prompts y debriefing experto para tu equipo.
Comentarios
Cargando comentarios...