1
No enviar el resultado de IA sin leer cada palabra
Los abogados son personalmente responsables de cada palabra que presentan ante un tribunal. El texto generado por IA puede contener citas fabricadas, jurisprudencia inventada y afirmaciones que suenan convincentes pero son completamente falsas.
Riesgo
Sanciones disciplinarias, responsabilidad por mala praxis, desestimación del caso, remisión a autoridades disciplinarias del colegio de abogados
Caso Real
En el caso Mata v. Avianca, Inc. (S.D.N.Y. 2023), los abogados Steven Schwartz y Peter LoDuca presentaron un escrito con seis citas jurisprudenciales completamente inventadas por ChatGPT. El Juez P. Kevin Castel impuso una multa de $5,000 a cada abogado. En el ámbito hispanohablante, el impacto fue inmediato: el Consejo General del Poder Judicial de España emitió recomendaciones sobre el uso de IA en 2024, y en Colombia, el Magistrado Juan Carlos Cortés de la Corte Constitucional utilizó ChatGPT para fundamentar una sentencia de tutela en 2023, generando un debate nacional sobre los límites del uso de IA en decisiones judiciales.
Qué hacer en su lugar
Leer cada palabra del texto generado por IA. Verificar cada cita contra fuentes primarias — bases de datos oficiales de jurisprudencia como CENDOJ (España), la Relatoría de la Corte Constitucional (Colombia), el SEJUFE (México) o SAIJ (Argentina). Tratar el resultado de IA como un borrador preliminar no verificado, nunca como producto terminado.
Lawra dice: Mira, entiendo el atractivo — la IA te ahorra horas de trabajo. Pero 'ahorrar tiempo' presentando casos inventados es como 'ahorrar dinero' no pagando tu seguro de responsabilidad profesional. No presentarías un escrito de tu pasante sin revisarlo. Definitivamente no deberías presentar uno escrito por tu robot sin revisarlo. La IA no tiene una matrícula profesional que perder. Tú sí.
2
No pegar información confidencial del cliente en herramientas de IA públicas
Las herramientas de IA de consumo como ChatGPT, Gemini y Claude (versiones gratuitas) pueden usar tus entradas para entrenar sus modelos. Pegar datos de clientes en estas herramientas constituye una violación de la confidencialidad.
Riesgo
Violación del secreto profesional, pérdida del privilegio abogado-cliente, responsabilidad por mala praxis, sanciones regulatorias, destrucción de la confianza del cliente
Caso Real
En abril de 2023, Samsung Electronics sufrió tres filtraciones de datos en solo 20 días cuando ingenieros pegaron código fuente propietario, notas de reuniones internas y datos de pruebas de hardware en ChatGPT. Samsung prohibió posteriormente todo uso de herramientas de IA generativa. En el ámbito jurídico iberoamericano, la Agencia Española de Protección de Datos (AEPD) emitió directrices en 2023 advirtiendo sobre los riesgos de compartir datos personales con herramientas de IA, y el Reglamento General de Protección de Datos (RGPD) de la UE impone obligaciones adicionales que hacen especialmente delicado el uso de IA con datos de clientes en España y la UE.
Qué hacer en su lugar
La opción más segura: instalar una IA local en tu propia computadora — tus datos nunca salen de tu máquina (consulta nuestra guía de IA Local). Alternativamente, utilizar herramientas de IA de nivel empresarial con garantías contractuales de protección de datos (ej. Azure OpenAI, ChatGPT Enterprise, Claude for Business). Nunca pegar información identificable del cliente en herramientas de IA gratuitas. Anonimizar y redactar antes de usar IA para cualquier tarea relacionada con clientes. Establecer protocolos a nivel de despacho para el manejo de datos con IA.
Lawra dice: El secreto profesional no es solo una regla — es el cimiento de todo el sistema jurídico. Tu cliente te confió sus secretos porque confía en ti. Pegar esos secretos en ChatGPT es como dejar su expediente abierto en un banco del parque esperando que nadie lo lea. Excepto que es peor — porque al menos un banco del parque no aprende de lo que se deja encima.
3
No asumir que la IA entiende tu jurisdicción
Los modelos de IA se entrenan con conjuntos masivos de datos que mezclan sistemas jurídicos de múltiples países. Rutinariamente confunden el common law con el derecho civil, la legislación federal con la estatal, y las leyes de un país con las de otro.
Riesgo
Presentar escritos basados en legislación de jurisdicción incorrecta, proporcionar asesoramiento jurídico erróneo, responsabilidad por mala praxis, pérdida de credibilidad ante los tribunales
Caso Real
En pruebas realizadas por investigadores de tecnología jurídica en 2023, un abogado estadounidense que usó ChatGPT para investigación de derecho contractual recibió respuestas que mezclaban el Uniform Commercial Code (EE.UU.), la Sale of Goods Act 1979 (Inglaterra) y la Convención de Viena sobre Compraventa Internacional de Mercaderías — sin indicar que se estaban combinando tres regímenes jurídicos distintos. En el contexto iberoamericano, el problema es igualmente grave: cuando se le pregunta sobre derecho de familia en español, ChatGPT frecuentemente mezcla disposiciones del Código Civil español con el Código Civil Federal de México, el Código Civil y Comercial argentino y normas colombianas, sin distinguir entre sistemas que tienen diferencias fundamentales en temas como el régimen de bienes del matrimonio, la custodia compartida o el divorcio.
Qué hacer en su lugar
Siempre especificar la jurisdicción exacta en tus prompts — país, comunidad autónoma/estado/provincia, y cuerpo normativo aplicable. Contrastar cada resultado de la IA con fuentes específicas de la jurisdicción. Nunca confiar en la suposición implícita de la IA sobre qué ley aplica.
Lawra dice: Los modelos de IA son como ese amigo viajero que ha estado en todas partes pero recuerda todos los lugares como si fueran el mismo. '¿Estás en Colombia? Déjame hablarte de este gran precedente de... *revisa notas*... el Tribunal Supremo de España.' La precisión jurisdiccional no es un lujo — es lo que separa el asesoramiento jurídico de la ficción jurídica. Y en el mundo hispano, donde tenemos más de veinte jurisdicciones nacionales con sistemas diferentes, el riesgo se multiplica.
4
No usar IA para reemplazar el juicio jurídico profesional
La IA puede investigar, redactar y analizar patrones. No puede evaluar la credibilidad de un testigo, ejercer discrecionalidad profesional, ponderar equidades en conflicto ni comprender las dimensiones humanas de un problema jurídico.
Riesgo
Representación inadecuada, falta de ejercicio del juicio profesional, responsabilidad por mala praxis, perjuicio al cliente por aplicación mecánica del derecho
Caso Real
En State v. Loomis (Wisconsin, 2016), la Corte Suprema de Wisconsin aprobó el uso del algoritmo COMPAS de evaluación de riesgo de reincidencia en sentencias penales, pero con advertencias críticas: las puntuaciones algorítmicas no pueden ser el factor determinante. ProPublica demostró que COMPAS exhibía disparidades raciales significativas. En el contexto hispanohablante, Argentina fue pionera con PROMETEA, un sistema de IA desarrollado para el Ministerio Público Fiscal de Buenos Aires en 2017 que predice resoluciones judiciales. Si bien ha mostrado alta precisión, sus creadores enfatizan que PROMETEA sugiere — nunca decide. La decisión final siempre corresponde al ser humano.
Qué hacer en su lugar
Usar IA para investigación, redacción y reconocimiento de patrones. Reservar las decisiones estratégicas, evaluaciones de credibilidad, asesoramiento al cliente y ejercicio de discrecionalidad para profesionales humanos. Siempre aplicar tu propio juicio jurídico como filtro final sobre cualquier análisis asistido por IA.
Lawra dice: La IA puede decirte lo que dice la ley. Incluso puede decirte lo que han hecho los tribunales en casos similares. Pero no puede decirte lo que la justicia exige en *este* caso, para *este* cliente, con *estos* hechos. El día que delegamos ese juicio a un modelo de lenguaje es el día que dejamos de ser abogados y empezamos a ser técnicos de entrada de datos para robots. Y yo no estudié Derecho para ser secretaria de un robot.
5
No ocultar el uso de IA ante tribunales que exigen divulgación
Un número creciente de tribunales exige que los abogados declaren cuándo se han utilizado herramientas de IA en la preparación de escritos procesales. No declararlo cuando es obligatorio es un camino directo a sanciones y pérdida de credibilidad.
Riesgo
Sanciones por incumplimiento de órdenes judiciales, pérdida de confianza judicial, procedimientos disciplinarios, consecuencias procesales adversas
Caso Real
En junio de 2023, el Juez Brantley Starr del Tribunal de Distrito Norte de Texas emitió una de las primeras órdenes permanentes requiriendo que todos los abogados certifiquen que el texto generado por IA en sus escritos ha sido verificado por un humano. Para 2024, el Quinto Circuito adoptó una regla a nivel de circuito. En el ámbito iberoamericano, el Consejo General del Poder Judicial de España incluyó recomendaciones de transparencia en sus Guías de Criterios sobre IA de 2024. En Brasil, el Consejo Nacional de Justicia (CNJ) emitió la Resolución 332/2020 estableciendo principios éticos para el uso de IA en el poder judicial, incluyendo transparencia. Colombia y México están desarrollando marcos similares.
Qué hacer en su lugar
Verificar las órdenes vigentes y reglas locales de cada jurisdicción sobre divulgación de IA antes de presentar escritos. Pecar de transparente — incluso cuando no se exige explícitamente, la divulgación voluntaria construye confianza. Desarrollar una certificación estándar de divulgación de IA para tu despacho.
Lawra dice: Los tribunales no te piden que confieses. Te piden que seas un profesional. Las reglas de divulgación existen porque los jueces se cansaron de jugar a '¿adivina qué citas son reales?' Si te avergüenza decirle a un juez que usaste IA, eso probablemente es señal de que debiste usarla con más cuidado. La transparencia no es una debilidad — es una señal de que asumes la responsabilidad de tu trabajo.
6
No tratar el resultado de IA como investigación jurídica
La IA genera texto jurídico que suena plausible, no análisis jurídico verificado. Produce texto que parece investigación pero que no ha sido realmente investigado. Tratar el resultado de IA como sustituto de una investigación jurídica rigurosa es un peligro profesional.
Riesgo
Dependencia de autoridades fabricadas, análisis jurídico incompleto, omisión de jurisprudencia vinculante, exposición a mala praxis, sanciones
Caso Real
Un estudio de 2024 de Stanford liderado por los investigadores Varun Magesh y Daniel E. Ho evaluó las capacidades de investigación jurídica de los principales modelos de IA (GPT-4, Claude, Llama 2) y encontró que alucinaban citas jurídicas entre el 69% y el 88% del tiempo cuando se les hacían preguntas directas de investigación jurídica. Incluso cuando las citas eran reales, los modelos frecuentemente tergiversaban las ratio decidendi, aplicaban estándares incorrectos u omitían jurisprudencia contraria vinculante. Estos resultados se refieren al derecho estadounidense; para el derecho iberoamericano, donde los datos de entrenamiento son significativamente menores, las tasas de error son presumiblemente aún más altas.
Qué hacer en su lugar
Usar IA para generar hipótesis de investigación, identificar posibles términos de búsqueda y crear esquemas preliminares. Luego realizar investigación jurídica real usando bases de datos oficiales — CENDOJ, Aranzadi o vLex (España), SEJUFE o IUS (México), Relatoría de la Corte Constitucional (Colombia), SAIJ (Argentina). La IA es el compañero de lluvia de ideas; la base de datos oficial es la fuente de verdad.
Lawra dice: No citarías Wikipedia en un escrito judicial. Entonces, ¿por qué citarías algo que básicamente es Wikipedia disfrazada de abogado? La IA no investiga. Predice texto. Son actividades fundamentalmente diferentes. Úsala para arrancar tu investigación, absolutamente — pero en el momento en que empieces a tratar 'ChatGPT dijo' como 'la ley dice,' has dejado de ser abogado y te has convertido en un autocomplete muy caro.
7
No usar IA para tareas que requieren inteligencia emocional
El asesoramiento al cliente, las negociaciones sensibles, la preparación de testigos y la comunicación de noticias difíciles requieren empatía humana, sintonía emocional y juicio interpersonal que la IA fundamentalmente no puede proporcionar.
Riesgo
Deterioro de la relación con el cliente, representación inadecuada, violaciones éticas, incumplimiento de obligaciones fiduciarias, perjuicio a personas vulnerables
Caso Real
En 2023, la Asociación Nacional de Trastornos Alimentarios de EE.UU. (NEDA) reemplazó a sus consejeros humanos con un chatbot de IA llamado 'Tessa.' En cuestión de días, los usuarios reportaron que Tessa proporcionaba consejos que podían empeorar los trastornos alimentarios — incluyendo recomendar conteo de calorías y pérdida de peso a personas buscando ayuda por anorexia. NEDA cerró Tessa en una semana. En el contexto jurídico iberoamericano, la mediación familiar — ampliamente utilizada en España (Ley 5/2012 de Mediación), México y Argentina — requiere habilidades de inteligencia emocional que ilustran perfectamente por qué la IA no puede sustituir al profesional humano en ciertas funciones.
Qué hacer en su lugar
Reservar las tareas que requieren empatía, inteligencia emocional, lectura entre líneas y conexión humana para profesionales humanos. Usar IA para investigación de fondo y redacción que apoyen estas interacciones, pero nunca como sustituto de la interacción humana en sí.
Lawra dice: Tu cliente no necesita una respuesta estadísticamente probable a su batalla de custodia. Necesita a alguien que le mire a los ojos y le diga: 'Entiendo lo que estás pasando, y así es como vamos a luchar por ti.' La IA puede redactar la demanda, pero no puede sostener el espacio. Si estás usando ChatGPT para escribir el correo que le dice a tu cliente que su recurso fue denegado, has malentendido fundamentalmente lo que tu cliente necesita de ti en ese momento.
8
No ignorar las directrices de tu colegio de abogados sobre IA
Colegios de abogados y consejos judiciales de todo el mundo están emitiendo directrices específicas sobre IA a un ritmo acelerado. No son sugerencias — son interpretaciones de obligaciones éticas existentes que conllevan consecuencias reales.
Riesgo
Procedimiento disciplinario, suspensión, inhabilitación, responsabilidad por mala praxis, pérdida de prestigio profesional
Caso Real
En 2024, el Consejo General de la Abogacía Española emitió directrices sobre el uso de IA en la práctica jurídica. La ABA estadounidense publicó su Formal Opinion 512 en julio de 2024, proporcionando orientación a nivel nacional. El Ilustre Colegio de Abogados de Madrid (ICAM) organizó jornadas formativas específicas sobre IA. En Colombia, el Consejo Superior de la Judicatura ha desarrollado pautas tras el debate generado por el uso de ChatGPT en sentencias. En Argentina, el Colegio Público de Abogados de la Capital Federal ha abordado el tema en sus programas de formación continua. El mensaje es claro en todas las jurisdicciones: las normas deontológicas existentes ya crean obligaciones que aplican al uso de IA, incluso sin directrices específicas.
Qué hacer en su lugar
Identificar y leer las directrices de tu colegio de abogados y consejo judicial sobre IA de inmediato. Suscribirte a sus actualizaciones. Si tu jurisdicción aún no ha emitido orientación específica sobre IA, aplicar las normas deontológicas existentes — competencia, secreto profesional, supervisión y lealtad procesal — a tu uso de IA. Documentar tu cumplimiento.
Lawra dice: Lo sé, lo sé — 'lee las directrices del colegio de abogados' es la versión de la profesión jurídica de 'come tus verduras.' Pero escucha: estas directrices son tu escudo. Cuando algo salga mal — y eventualmente, para alguien, saldrá — la primera pregunta de la junta disciplinaria será: '¿Seguiste la orientación aplicable?' Si tu respuesta es 'No sabía que había alguna,' ya perdiste. Y honestamente, la mayoría de estas directrices están bien escritas. Los colegios están tratando de ayudar. Déjalos.
9
No dejar que la IA escriba tu escrito procesal completo
Los escritos generados completamente por IA carecen de la visión estratégica, la voz persuasiva y la argumentación matizada que distinguen la abogacía efectiva. Un escrito escrito enteramente por IA es un documento genérico que no sirve los intereses particulares de ningún cliente.
Riesgo
Defensa débil, argumentos genéricos que no persuaden, oportunidades estratégicas perdidas, pérdida de la voz profesional y credibilidad del abogado
Caso Real
En Ex parte Allen Michael Lee (Texas Court of Criminal Appeals, 2024), una petición de habeas corpus fue señalada como probablemente generada por IA basándose en su lenguaje genérico, patrones de formato inusuales y argumentos que no conectaban con los hechos específicos del caso. En el contexto iberoamericano, jueces del Tribunal Supremo español han comentado públicamente en foros jurídicos de 2024 sobre la creciente presencia de escritos que evidencian el uso de IA por su carácter genérico y su falta de conexión con las particularidades del caso. La Fundación Española de Abogacía ha advertido sobre el riesgo de que la automatización excesiva degrade la calidad de la defensa técnica.
Qué hacer en su lugar
Usar IA para investigación, esquematización y generación de secciones de borrador inicial. Luego reescribir extensamente — añadir tu visión estratégica, tu conocimiento del juez, tu comprensión de los hechos únicos del caso, tu voz persuasiva y tu juicio profesional sobre qué argumentos enfatizar, minimizar u omitir completamente.
Lawra dice: Un secreto: los jueces lo notan. Han estado leyendo escritos durante años, y un escrito generado por IA se lee como un artículo de Wikipedia disfrazado de abogado — técnicamente correcto, integralmente mediocre y completamente desprovisto de la chispa estratégica que hace que un escrito realmente persuada. Tu cliente no contrató a Wikipedia. Te contrató a ti. Usa la IA para los andamios, luego construye algo que solo tú podrías haber construido.
10
No asumir que las limitaciones de hoy son permanentes
Las capacidades de la IA avanzan a un ritmo exponencial. Lo que la IA no puede hacer hoy, puede hacerlo con competencia mañana. Los abogados que descartan la IA basándose en sus limitaciones actuales corren el riesgo de ser tomados por sorpresa por una mejora rápida.
Riesgo
Obsolescencia profesional, desventaja competitiva, incapacidad de adaptar la práctica a capacidades en evolución, incapacidad de servir a los clientes efectivamente a medida que la profesión se transforma
Caso Real
En 2022, los profesionales jurídicos descartaban ampliamente que la IA fuera capaz de aprobar el examen de abogacía. En 2023, GPT-4 aprobó el Uniform Bar Examination de EE.UU., situándose aproximadamente en el percentil 90. En 2024, modelos de IA jurídica especializados comenzaron a superar a abogados junior en tareas específicas como revisión de contratos e investigación jurídica. En España, la revolución del Legaltech se aceleró: plataformas como Bigle Legal, Signaturit y Trescloud comenzaron a integrar IA generativa. En Latinoamérica, startups de Legaltech como Brevity (Chile), Trato (México) y Legaltechies (Colombia) están transformando el mercado. El ritmo del cambio ha superado consistentemente las predicciones de los expertos.
Qué hacer en su lugar
Mantenerse informado sobre los desarrollos de IA a través de fuentes confiables. Reevaluar tus capacidades y flujos de trabajo de IA trimestralmente. Construir adaptabilidad en tu práctica — tratar la competencia en IA como una habilidad en evolución, no un evento de aprendizaje único. Invertir en formación continua y experimentación.
Lawra dice: En 2020, la opinión 'inteligente' era que la IA no podía manejar matices jurídicos. Para 2023, aprobaba el examen de abogacía. Si construyes tu estrategia de carrera sobre la suposición de que la IA no puede hacer X, más vale que tengas un plan para el día en que pueda. No digo que la IA vaya a reemplazar a los abogados — genuinamente no creo que lo haga. Pero absolutamente reemplazará a los abogados que se nieguen a entenderla. Los abogados que prosperen serán los que dejaron de preguntar '¿Puede la IA hacer esto?' y empezaron a preguntar '¿Cómo puedo hacer esto mejor con IA?'
Comentarios
Cargando comentarios...