El abogado Steven Schwartz utilizó ChatGPT para redactar un escrito legal y presentó seis citas jurisprudenciales completamente fabricadas. El tribunal sancionó a Schwartz y su colega por presentar precedentes falsos sin verificación.
Decisión
El tribunal impuso sanciones de $5,000 a Schwartz y al co-abogado Peter LoDuca, determinando que actuaron de mala fe al presentar opiniones judiciales inexistentes generadas por IA y no verificarlas a pesar de múltiples oportunidades.
Argumentos a Favor / Implicaciones Positivas
- Estableció un precedente claro de que la investigación legal generada por IA debe verificarse antes de presentarse
- Alertó a la profesión jurídica sobre los riesgos de las alucinaciones de la IA
- Impulsó a colegios de abogados de todo el mundo a emitir directrices sobre IA
- Las sanciones relativamente moderadas indican que los tribunales buscan educar, no destruir carreras
Argumentos en Contra / Preocupaciones
- Las sanciones fueron posiblemente demasiado leves para disuadir efectivamente el mal uso futuro de la IA
- La decisión se centró en la negligencia del abogado en lugar de crear reglas específicas sobre IA
- Puede generar un efecto disuasorio que desaliente el uso beneficioso de la IA en la práctica legal
- No abordó la cuestión subyacente de los estándares de fiabilidad de las herramientas de IA
Nuestras Opiniones
Este caso es la llamada de atención que todo abogado necesitaba. No significa que no debas usar IA — significa que debes verificar todo lo que produce, igual que verificarías el primer memorando de un asociado junior. El deber de competencia no ha cambiado; las herramientas sí.Lawra (La Moderada)
Esto es exactamente lo que he estado advirtiendo sobre la IA en la práctica legal. Un abogado confió en una máquina por encima de su responsabilidad profesional básica. Seis casos falsos. En un tribunal federal. Si esto no te convence de que la IA es un riesgo en los tribunales, nada lo hará.Lawrena (La Escéptica)
A ver, un abogado usó mal una herramienta y lo descubrieron. Eso no es una condena a la IA — es una condena a saltarse la verificación. Los pilotos no dejan de usar el piloto automático porque alguien se estrelló; se entrenan mejor. Este caso debería impulsarnos hacia mejores flujos de trabajo con IA, no alejarnos de ella.Lawrelai (La Entusiasta)
Esto no es un fallo de la IA — es un fallo humano de proceso. La verdadera lección no es 'no uses IA.' Es 'incorpora la verificación en tu flujo de trabajo.' La IA amplifica lo que podemos hacer; no reemplaza la necesidad de pensar críticamente. La profesión legal debería responder integrando la alfabetización en IA en la formación, no retirándose de la innovación. Los despachos que construyan flujos de trabajo estructurados con IA ahora superarán a los que prohíban las herramientas por miedo.Carlos Miranda Levy (El Curador)
Por Qué Importa Este Caso
Mata v. Avianca es el caso que lanzó mil cursos de educación legal continua. Cuando el abogado Steven Schwartz le pidió a ChatGPT que encontrara jurisprudencia de apoyo para una demanda por lesiones personales contra Avianca Airlines, la IA produjo con confianza seis opiniones judiciales — ninguna de las cuales existía. Schwartz presentó las citas fabricadas en un escrito ante un tribunal federal sin verificarlas.
Qué Ocurrió
El juez P. Kevin Castel descubrió los casos inexistentes y ordenó a Schwartz y al co-abogado Peter LoDuca que justificaran su conducta. Cuando fue confrontado, Schwartz inicialmente respaldó las citas, luego admitió que había usado ChatGPT y “no pensó que pudiera fabricar casos.” El tribunal encontró esta explicación poco convincente e impuso sanciones.
El Impacto Más Amplio
Este caso aceleró por sí solo el ajuste de cuentas de la profesión legal con la IA generativa. En los meses posteriores a la decisión, decenas de tribunales adoptaron órdenes permanentes que requieren a los abogados revelar el uso de IA. Colegios de abogados desde Texas hasta la Unión Europea emitieron opiniones éticas. El caso se convirtió en sinónimo de “verifica lo que produce la IA.”
Fuentes
- Mata v. Avianca, Inc., No. 22-cv-1461 (PKC) (S.D.N.Y. 22 de junio de 2023) (2023-06-22)
- Esto es lo que pasa cuando tu abogado usa ChatGPT — New York Times (2023-05-27)
Explora los Marcos Legales
Los casos no ocurren en el vacío. Explora los marcos regulatorios que están dando forma al derecho de la IA en todo el mundo — desde la Ley de IA de la UE hasta la legislación emergente en América Latina.
¿Listo para un aprendizaje estructurado? Explora el Programa de Aprendizaje →
Lawra
Lawrena
Lawrelai
Carlos Miranda Levy
Comentarios
Cargando comentarios...