El abogado Michael Goldstein fue sancionado con $5,000 después de presentar un escrito que contenía citas jurisprudenciales fabricadas por IA y citas textuales falsas en un caso de discriminación laboral. A diferencia de Mata v. Avianca, esto ocurrió después de una amplia concientización sobre los riesgos de alucinación de la IA.
Decisión
La jueza Wendy Beetlestone impuso sanciones de $5,000, determinando que Goldstein presentó casos fabricados y citas inventadas atribuidas a jueces reales. El tribunal enfatizó que esto ocurrió mucho después de que Mata v. Avianca alertara a la profesión.
Argumentos a Favor / Implicaciones Positivas
- Refuerza que el deber de verificar el output de IA es ahora una norma profesional establecida
- Demuestra que los tribunales aplicarán sanciones consistentes por citas fabricadas por IA
- Evidencia que 'no sabía que la IA podía alucinar' ya no es una defensa viable
- Incentiva a los despachos a implementar políticas de verificación de IA
Argumentos en Contra / Preocupaciones
- El mismo nivel de sanción de $5,000 que Mata v. Avianca sugiere que no hay escalamiento para infracciones repetidas
- Las sanciones individuales a abogados pueden no impulsar cambios sistémicos a nivel de despacho
- Se enfoca en el castigo en lugar de proporcionar orientación sobre el uso apropiado de IA
- Puede no llegar a abogados que no siguen noticias legales sobre IA
Nuestras Opiniones
Este es Mata v. Avianca 2.0 — y ese es el problema. Dos años después de que la profesión legal fuera alertada, los abogados siguen presentando citas fabricadas por IA. La capacitación y los protocolos de verificación ya no son opcionales; son una habilidad de supervivencia profesional.Lawra (La Moderada)
Dos años. Dos años completos después de Mata v. Avianca, y los abogados siguen confiando ciegamente en lo que produce la IA. Esto prueba mi punto: la tecnología es inherentemente peligrosa para el trabajo legal porque crea una falsa sensación de confianza que anula el juicio profesional.Lawrena (La Escéptica)
Esto no es un problema de IA — es un problema de capacitación y procesos. No culpamos al corrector ortográfico cuando alguien presenta un escrito con errores; culpamos al abogado que no revisó. La solución es mejor alfabetización en IA y flujos de verificación obligatorios, no abandonar las herramientas.Lawrelai (La Entusiasta)
Dos años después de Mata v. Avianca y el mismo error sigue ocurriendo. Esto me dice que la respuesta de la profesión ha sido inadecuada — hemos estado hablando sobre los riesgos de la IA en vez de construir marcos estructurados para su uso. Las campañas de concientización no cambian comportamientos; los marcos, las listas de verificación y los flujos de verificación integrados sí. Cada despacho debería tener un protocolo concreto de uso de IA a estas alturas. Los que no lo tienen están eligiendo la negligencia sobre la adaptación.Carlos Miranda Levy (El Curador)
Por Qué Importa Este Caso
Si Mata v. Avianca fue la primera advertencia de la profesión legal sobre las alucinaciones de la IA, Kruse v. Karv Communications es la prueba de que la advertencia no fue suficiente. Este caso demuestra que algunos abogados siguen presentando citas fabricadas por IA a pesar de la amplia concientización sobre los riesgos.
Qué Ocurrió
El abogado Michael Goldstein presentó un escrito en un caso de discriminación laboral que contenía múltiples citas jurisprudenciales fabricadas y citas textuales inventadas atribuidas a jueces federales reales. Cuando el tribunal investigó, encontró que las citas fueron generadas por IA y nunca se verificaron contra bases de datos jurisprudenciales reales.
El Impacto Más Amplio
Este caso es significativo precisamente por su momento. Para principios de 2025, prácticamente todas las publicaciones legales, colegios de abogados y proveedores de educación continua habían cubierto los riesgos de las alucinaciones de IA en la investigación legal. Tribunales de todo el país habían adoptado requisitos de divulgación de IA. El fracaso de Goldstein en verificar su output de IA a pesar de este contexto sugiere que la concientización por sí sola es insuficiente — los despachos necesitan protocolos de verificación obligatorios y capacitación práctica.
Fuentes
- Kruse v. Karv Communications, No. 24-cv-3417 (E.D. Pa. 30 de enero de 2025) (2025-01-30)
- Otro abogado sancionado por citas falsas generadas por IA — Reuters Legal (2025-02-03)
Explora los Marcos Legales
Los casos no ocurren en el vacío. Explora los marcos regulatorios que están dando forma al derecho de la IA en todo el mundo — desde la Ley de IA de la UE hasta la legislación emergente en América Latina.
¿Listo para un aprendizaje estructurado? Explora el Programa de Aprendizaje →
Lawra
Lawrena
Lawrelai
Carlos Miranda Levy
Comentarios
Cargando comentarios...