Caso Real

Mata v. Avianca: Quando as Alucinações de IA Chegam ao Tribunal

Em 2023, um advogado de Nova York apresentou uma petição citando seis decisões judiciais que nunca existiram — todas fabricadas pelo ChatGPT. As consequências reformularam a forma como a profissão jurídica pensa sobre IA.

Duração

4–6 horas

Participantes

5–8

← Ver Todos os Estudos de Caso

O Caso

Roberto Mata ajuizou uma ação de danos pessoais contra a Avianca Airlines no Distrito Sul de Nova York, alegando ter sido lesionado quando um carrinho de serviço de metal atingiu seu joelho durante um voo. O caso parecia rotineiro o suficiente. O que o tornou extraordinário — e em última análise infame — não foi o mérito da demanda, mas uma falha catastrófica na forma como a pesquisa jurídica foi conduzida.

Steven A. Schwartz, um advogado autônomo com mais de 30 anos de experiência trabalhando no escritório Levidow, Levidow & Oberman, foi encarregado de preparar uma petição de oposição à moção de arquivamento da Avianca. Buscando eficiência, Schwartz recorreu ao ChatGPT — uma ferramenta com a qual ele havia começado a experimentar recentemente — para conduzir pesquisa jurídica. O chatbot de IA prontamente forneceu-lhe uma série de citações de jurisprudência que pareciam sustentar a posição de seu cliente.

Havia um problema devastador: nenhum dos casos era real. O ChatGPT havia "alucinado" — gerando decisões judiciais que soavam plausíveis mas eram inteiramente fabricadas, completas com nomes de casos inventados, números de processo e fundamentação jurídica. Schwartz, sem familiaridade com a tendência da IA de confabular, não verificou as citações em bases de dados jurídicas tradicionais. Em vez disso, perguntou ao próprio ChatGPT se os casos eram reais. O chatbot confirmou com confiança que eram.

Cronologia dos Eventos

1

1º de março de 2023 — A Petição É Protocolada

O advogado Peter LoDuca, sócio sênior do escritório, assina e protocola a petição de oposição preparada por Schwartz. A petição cita seis decisões judiciais, incluindo Varghese v. China Southern Airlines, Martinez v. Delta Airlines e Petersen v. Iran Air. Nenhuma delas existe.

2

Abril de 2023 — Advogados Adversários Alertam

Os advogados da Avianca, sem conseguir localizar nenhum dos casos citados em bases de dados jurídicas, protocolam uma petição ao tribunal observando que as citações parecem ser fictícias e solicitando esclarecimentos.

3

4 de maio de 2023 — O Tribunal Exige Respostas

O juiz P. Kevin Castel emite uma ordem exigindo que os advogados apresentem cópias das decisões citadas. Schwartz, agora percebendo a gravidade da situação, tenta localizar os casos e não consegue. Ele fornece "decisões" geradas pelo ChatGPT que também são fabricadas.

4

22 de junho de 2023 — Audiência de Justificação

O juiz Castel convoca uma audiência de justificação. Schwartz testemunha sob juramento, admitindo ter usado o ChatGPT e expressando arrependimento. Ele se descreve como "envergonhado, humilhado e profundamente arrependido." A transcrição revela que ele até perguntou ao ChatGPT: "Os casos que você forneceu são reais?" — ao que ele respondeu: "Sim."

5

22 de junho de 2023 — Sanções Impostas

O juiz Castel emite sua decisão de sanções. Schwartz, LoDuca e o escritório são cada um condenados a pagar US$ 5.000 em multas. Eles são ainda obrigados a enviar cópias da decisão de sanções a cada juiz falsamente citado nos casos fabricados. A decisão é publicada, ganhando manchetes internacionais.

Por Que Isso Importa

Mata v. Avianca não foi a primeira vez que um advogado cometeu um erro, nem mesmo o caso de sanções mais consequente da história. Mas tornou-se um momento divisor de águas porque cristalizou uma nova categoria de risco profissional. Pela primeira vez, a profissão jurídica confrontou a realidade de que ferramentas de IA — acessíveis, persuasivas e fundamentalmente não confiáveis em sua forma atual — poderiam minar a própria base da prática jurídica: o dever de candura perante o tribunal. Em poucos meses após a decisão, tribunais nos Estados Unidos e ao redor do mundo começaram a emitir ordens permanentes exigindo divulgação do uso de IA em peças processuais.

Análise de Contexto

Compreendendo o contexto sistêmico que tornou este caso possível — e inevitável.

Estrutura Jurídica

  • ABA Model Rule 1.1 — O dever de competência exige que advogados compreendam as ferramentas que utilizam
  • ABA Model Rule 3.3 — O dever de candura proíbe apresentar informações falsas ao tribunal
  • Federal Rule of Civil Procedure 11 — Exige investigação razoável sobre alegações jurídicas
  • 28 U.S.C. 1927 — Advogados responsáveis pela multiplicação desnecessária e vexatória de procedimentos

Contexto Tecnológico

  • O ChatGPT (GPT-3.5) foi lançado em novembro de 2022, alcançando 100 milhões de usuários em dois meses
  • Modelos de linguagem de grande porte geram texto probabilístico, não fatos verificados
  • "Alucinação" — o modelo produz outputs confiantes e plausíveis, mas fabricados
  • Nenhum mecanismo incorporado para verificar afirmações em bases de dados jurídicas confiáveis

Padrões Profissionais

  • Advogados são pessoalmente responsáveis por cada citação em suas peças processuais
  • A delegação de pesquisa não exime o advogado signatário dos deveres de verificação
  • Competência tecnológica é agora reconhecida como parte da competência profissional
  • Boa-fé não é defesa para deixar de verificar fatos facilmente verificáveis

Fatores Sistêmicos

  • Pressão sobre advogados autônomos e pequenos escritórios para adotar ferramentas de redução de custos
  • Lacuna entre a velocidade de adoção da IA e o desenvolvimento de orientação profissional
  • Falta de programas de treinamento para advogados sobre uso responsável de IA na época
  • Percepção pública da IA como infalível, alimentada pelo hype da mídia em torno do lançamento do ChatGPT

Partes Interessadas e Papéis

Na simulação de papéis, os participantes assumem os seguintes papéis. Cada papel tem objetivos distintos, restrições e informações exclusivas.

1

Steven Schwartz

Perfil

Um advogado de meia carreira com mais de 30 anos de experiência, mas expertise tecnológica limitada. Usou o ChatGPT pela primeira vez para pesquisa jurídica, confiando em seus resultados sem verificação independente.

Objetivos

  • Minimizar sanções pessoais e preservar sua licença profissional
  • Demonstrar arrependimento genuíno e ausência de intenção maliciosa
  • Proteger o caso subjacente de seu cliente contra arquivamento

Informação Exclusiva

Schwartz sabe que perguntou explicitamente ao ChatGPT para confirmar que os casos eram reais, e ele confirmou. Ele tem capturas de tela da conversa. Ele também sabe que um associado júnior o alertou sobre a confiabilidade da IA semanas antes, o que ele desconsiderou.

2

Juiz P. Kevin Castel

Perfil

Um juiz federal veterano do Distrito Sul de Nova York. Deve equilibrar punição proporcional com a necessidade de enviar uma mensagem clara à profissão jurídica sobre o uso de IA.

Objetivos

  • Determinar sanções apropriadas que preservem a integridade do tribunal
  • Estabelecer precedente significativo para uso de IA em peças processuais sem exagerar
  • Garantir que o caso subjacente possa prosseguir de forma justa em seus méritos

Restrições

O juiz está ciente de que outros advogados relataram problemas semelhantes privativamente a seus assessores. Ele sabe que esta decisão será escrutinada nacionalmente. Ele também está ciente da necessidade de não inibir a inovação legítima.

3

Peter LoDuca

Perfil

Sócio sênior da Levidow, Levidow & Oberman. Assinou e protocolou a petição sem verificar independentemente a pesquisa. Como advogado de registro, ele tem responsabilidade formal pela petição.

Objetivos

  • Proteger a reputação do escritório e limitar a responsabilidade institucional
  • Distanciar-se do uso de IA de Schwartz enquanto reconhece falha de supervisão
  • Manter o relacionamento com o cliente e salvar o caso

Informação Exclusiva

LoDuca sabe que o escritório não tem política de uso de IA e que outros advogados do escritório também têm usado o ChatGPT. Ele também está ciente de que a seguradora de responsabilidade profissional do escritório tem feito perguntas.

4

Roberto Mata

Perfil

O autor na ação de danos pessoais subjacente. Um passageiro ferido em um voo da Avianca cuja reivindicação jurídica legítima está agora ofuscada e em risco pela conduta de seus advogados.

Objetivos

  • Garantir que sua ação de danos pessoais não seja arquivada por causa dos erros de seus advogados
  • Decidir se busca nova representação ou continua com o escritório atual
  • Compreender seus direitos e recursos potenciais, incluindo uma ação de responsabilidade profissional

Informação Exclusiva

Mata nunca foi informado de que IA estava sendo usada em seu caso. Ele foi contatado por outro escritório de advocacia oferecendo-se para assumir seu caso e mover uma ação de responsabilidade profissional contra a Levidow.

5

Advogados Adversários

Perfil

O advogado de defesa da Avianca de um grande escritório corporativo. Descobriu as citações fabricadas durante verificação rotineira de pesquisa e levou a questão ao conhecimento do tribunal.

Objetivos

  • Proteger os interesses da Avianca e potencialmente buscar o arquivamento com prejudicialidade
  • Decidir quão agressivamente buscar sanções sem parecer vindictivo
  • Usar a situação estrategicamente enquanto mantém cortesia profissional

Restrições

O próprio escritório dos advogados adversários adotou recentemente ferramentas de IA para revisão de documentos. Eles devem equilibrar advocacia agressiva com a consciência de que busca excessiva de sanções poderia prejudicar a profissão como um todo.

6

Consultor de Ética Jurídica

Perfil

Um representante do Comitê de Ética Profissional da Ordem dos Advogados do Estado de Nova York. Presente como observador estilo amicus curiae avaliando as implicações de conduta profissional.

Objetivos

  • Avaliar se as regras éticas existentes tratam adequadamente o uso de IA na prática jurídica
  • Recomendar se novas diretrizes ou pareceres formais são necessários
  • Equilibrar inovação com proteção do interesse público

Informação Exclusiva

O consultor de ética possui dados mostrando que 23% dos advogados pesquisados em Nova York usaram IA generativa para tarefas de trabalho, e apenas 11% dos escritórios adotaram políticas formais de uso de IA. Um parecer ético formal está sendo redigido, mas ainda não foi publicado.

Atividades de Aprendizagem

Seis tipos de tarefas baseadas na metodologia Smoother, projetadas para construir progressivamente uma compreensão mais profunda do caso e suas implicações.

  • Leia a narrativa completa do caso e as peças processuais. Identifique os cinco fatos-chave que levaram à ordem de sanções.
  • Liste todos os atores envolvidos (indivíduos, instituições e tecnologias) e seus papéis na sequência dos eventos.
  • Pesquise o que o ChatGPT (GPT-3.5) era capaz de fazer no início de 2023. Observe o que era publicamente conhecido sobre alucinação naquela época.
  • Identifique as ABA Model Rules e Federal Rules específicas em questão. Resuma cada uma em uma frase.
  • Observe quais aspectos deste caso parecem familiares da sua própria experiência profissional e quais são inteiramente novos.
  • Resuma o caso em suas próprias palavras (máximo 200 palavras), como se estivesse explicando para um colega que nunca ouviu falar dele.
  • Crie um mapa de stakeholders mostrando as relações e dinâmicas de poder entre todas as partes.
  • Explique o caso da perspectiva de Schwartz: O que ele estava tentando alcançar? O que ele acreditava sobre a tecnologia?
  • Agora explique da perspectiva do juiz Castel: Que obrigações o tribunal tinha? Que mensagem precisava ser enviada?
  • Identifique o momento em que a situação se tornou irreversível. Poderia ter sido detectada antes? Por quem?
  • Avalie cada decisão que Schwartz tomou em sequência. Em que ponto a negligência se tornou conduta sancionável?
  • Identifique as falhas sistêmicas: O que o escritório, a profissão jurídica e a indústria de tecnologia deveriam ter feito de diferente?
  • Avalie a confiabilidade de diferentes fontes de informação neste caso: ChatGPT, Westlaw/LexisNexis, o próprio julgamento do advogado, revisão por pares.
  • Questione a presunção de que um "advogado razoável" teria detectado este erro. Esse padrão é realista em 2023?
  • As sanções foram proporcionais? Compare com sanções em outros casos envolvendo autoridades fabricadas ou deturpadas.
  • Analise a tensão entre encorajar a inovação em IA na prática jurídica e proteger a integridade do processo judicial.
  • Redija uma política de uso de IA para um escritório de advocacia de médio porte que trate das falhas específicas expostas neste caso.
  • Projete um fluxo de verificação: Quando um advogado usa IA para pesquisa jurídica, quais passos devem ser seguidos antes que uma citação seja incluída em uma peça processual?
  • Simule a audiência de sanções: Como seu papel designado, prepare uma declaração de abertura de 3 minutos.
  • Crie um "Checklist de Pesquisa com IA" de uma página que possa ser afixado no departamento de pesquisa de um escritório de advocacia.
  • Proponha um módulo de educação jurídica continuada (CLE) sobre letramento em IA para advogados praticantes. Descreva o currículo.
  • Autoavaliação: Antes e depois de estudar este caso, classifique sua compreensão dos riscos da IA na prática jurídica em uma escala de 1 a 10. O que mudou?
  • Troque seu rascunho de política de uso de IA com outro participante. Forneça feedback escrito: O que ele cobre bem? Que lacunas permanecem?
  • Avalie os fluxos de verificação propostos por outros grupos. Qual seria mais prático em um escritório real? Por quê?
  • Revise a decisão real de sanções do juiz Castel. Ela atingiu seus objetivos declarados? O que você teria feito de diferente?
  • Avalie se as sanções tiveram o efeito dissuasório pretendido. Pesquise casos subsequentes de uso indevido de IA em peças processuais.
  • Que pressupostos sobre IA você tinha antes de estudar este caso? Quais desses pressupostos mudaram?
  • Como este caso se conecta à sua própria prática profissional? Identifique uma forma específica pela qual seu comportamento mudará.
  • Reflita sobre sua resposta emocional à situação de Schwartz. Você sentiu simpatia, julgamento ou outra coisa? Como isso afetou sua análise?
  • Considere o fator "poderia ter sido comigo": Quão perto você chegou de confiar em informações não verificadas em seu próprio trabalho?
  • Escreva uma breve reflexão (150 palavras) sobre suas três conclusões mais importantes e uma ação a ser tomada nos próximos 30 dias.

Simulação de Papéis

Um exercício imersivo de simulação de papéis que coloca os participantes no tribunal no dia da audiência de justificação.

Cenário da Simulação

É 22 de junho de 2023. O juiz P. Kevin Castel convocou uma audiência de justificação no tribunal do Daniel Patrick Moynihan United States Courthouse no Lower Manhattan. Steven Schwartz, Peter LoDuca, advogados adversários e Roberto Mata estão todos presentes. O Consultor de Ética Jurídica foi convidado pelo tribunal como observador amicus. O juiz leu as petições. O tribunal está lotado de jornalistas. Todos sabem que o que acontecer nesta sala hoje repercutirá por toda a profissão jurídica.

Regras

Duração Total

90 minutos

Comunicação

Todas as declarações devem ser dirigidas ao juiz; sem conversas paralelas, a menos que o juiz permita

Mecanismo de Decisão

O juiz emite uma decisão ao final; todas as partes podem fazer declarações finais

Fases

Fase 1

Preparação (20 minutos)

Cada participante estuda seu cartão de papel e informações exclusivas. Prepare sua posição, antecipe perguntas e identifique seus argumentos-chave. Schwartz e LoDuca podem conferir brevemente. O juiz revisa os autos e prepara perguntas.

Fase 2

Simulação da Audiência (45 minutos)

O juiz abre os procedimentos e se dirige a cada parte. Schwartz e LoDuca explicam a situação. Os advogados adversários apresentam sua posição. Roberto Mata pode se dirigir ao tribunal. O Consultor de Ética oferece perspectiva sobre padrões profissionais. O juiz questiona todas as partes.

Fase 3

Deliberação e Decisão (25 minutos)

O juiz se retira brevemente para deliberar (5 minutos). Retorna para emitir a decisão e explicar a fundamentação. Todas as partes podem fazer breves declarações finais. O Consultor de Ética apresenta observações finais sobre as implicações para a profissão.

Variações Opcionais

  • E se Schwartz tivesse divulgado voluntariamente? Repita o cenário assumindo que Schwartz descobriu o erro por conta própria e imediatamente notificou o tribunal. Como a audiência muda? As sanções ainda seriam apropriadas?
  • E se o cliente processasse o escritório? Após a audiência de sanções, realize uma segunda simulação onde Roberto Mata contratou novos advogados e está movendo uma ação de responsabilidade profissional contra a Levidow, Levidow & Oberman.
  • E se isso acontecesse na sua jurisdição? Adapte o cenário às suas regras locais de conduta profissional e procedimentos judiciais. Como o resultado seria diferente?

Debriefing

Após a simulação, use estas perguntas para orientar a discussão em grupo e a reflexão individual.

Reflexão sobre o Papel

  • Como foi estar no seu papel designado? Que pressões e restrições moldaram suas decisões?
  • Que argumentos você achou mais e menos persuasivos das outras partes?
  • Houve um momento durante a simulação em que você se sentiu genuinamente em conflito? Descreva-o.
  • Se você pudesse voltar atrás e mudar uma coisa que seu personagem fez, o que seria?

Revelação da Assimetria de Informação

  • Cada papel tinha informações exclusivas. Compartilhe as suas agora com o grupo. Como saber disso antes teria mudado a dinâmica?
  • Houve momentos em que você suspeitou que outra parte estava retendo informações? Você estava certo?
  • Como a assimetria de informação afetou a justiça e o resultado da audiência?

Reflexão Fora do Papel

  • Saia do seu papel. Você concorda com a decisão emitida durante a simulação? Por que ou por que não?
  • Compare o resultado da simulação com a decisão real do tribunal. O que foi semelhante? O que foi diferente?
  • Que princípios éticos estavam em tensão durante este caso? Existe uma "resposta certa" clara?
  • Você teria sancionado Schwartz mais severamente, menos severamente, ou da mesma forma que o juiz Castel realmente fez?

Conexão com o Mundo Real

  • Seu escritório ou organização atualmente possui uma política de uso de IA? Se sim, ela teria prevenido esta situação? Se não, o que deveria incluir?
  • Você pessoalmente já usou IA generativa para tarefas profissionais? Este estudo de caso mudou como você pensa sobre isso?
  • Qual é a mudança sistêmica mais importante que poderia prevenir futuras situações como Mata v. Avianca?
  • Cite uma ação concreta que você tomará no próximo mês com base no que aprendeu hoje.

Referências e Fontes

Documentos Judiciais

  • Mata v. Avianca, Inc., No. 22-cv-1461 (PKC) (S.D.N.Y. 2023) — Autos e histórico processual
  • Order to Show Cause, de 11 de abril de 2023 — Ordem inicial do juiz Castel exigindo explicação sobre as autoridades citadas
  • Affidavit of Steven A. Schwartz, de 25 de maio de 2023 — Relato sob juramento do advogado sobre uso do ChatGPT
  • Sanctions Opinion and Order, de 22 de junho de 2023 — Decisão publicada do juiz Castel impondo sanções

Padrões Profissionais

  • ABA Model Rules of Professional Conduct, Rule 1.1 (Competência) — Comentário 8 sobre competência tecnológica
  • ABA Model Rules of Professional Conduct, Rule 3.3 (Candura Perante o Tribunal)
  • New York Rules of Professional Conduct, Rules 1.1 e 3.3
  • Federal Rules of Civil Procedure, Rule 11 — Representações ao Tribunal

Análises e Comentários

  • Thomson Reuters, "ChatGPT e Jurisprudência: Mata v. Avianca e os Perigos da IA Gerativa na Pesquisa Jurídica" (2023)
  • American Bar Association, "Advogado que Usou ChatGPT Recebe Sanção — E o que Isso Significa para a Profissão" (2023)
  • Reuters Legal News, "New York Lawyers Sanctioned for Using Fake ChatGPT Cases in Legal Brief" (junho de 2023)
  • Legal Ethics Forum, "O Problema Mata v. Avianca: Alucinação, Verificação e Dever de Competência na Era da IA" (2023)
  • Artificial Lawyer, "Pós-Mata: Como os Tribunais Estão Respondendo ao Uso de IA em Documentos Jurídicos" (2023)

Pronto para Vivenciar Este Caso?

Este estudo de caso é projetado para facilitação guiada como parte do Programa de Aprendizado Lawra. Solicite um programa personalizado que inclua simulação de papéis com moderação especializada.

Ver Todos os Estudos de Caso

Comentários

Carregando comentários...

0/2000 Os comentários são moderados antes de serem exibidos.