← Voltar para Todos os Casos
Concluído Ética

Mata v. Avianca, Inc.

Tribunal Distrital dos EUA, Distrito Sul de Nova York · Estados Unidos · 2023-06-22 · 22-cv-1461 (PKC)

O advogado Steven Schwartz usou o ChatGPT para redigir uma petição jurídica e a apresentou contendo seis citações de casos inteiramente fabricadas. O tribunal sancionou Schwartz e seu colega por apresentarem precedentes falsos sem verificação.

Decisão

O tribunal impôs sanções de US$ 5.000 a Schwartz e ao co-advogado Peter LoDuca, concluindo que agiram de má-fé ao apresentar decisões judiciais inexistentes geradas por IA e não as verificaram apesar de múltiplas oportunidades.

Argumentos a Favor / Implicações Positivas

  • Estabeleceu um precedente claro de que pesquisa jurídica gerada por IA deve ser verificada antes da apresentação
  • Alertou a profissão jurídica sobre os riscos de alucinações de IA
  • Motivou ordens de advogados em todo o mundo a emitir orientações sobre IA
  • Sanções relativamente moderadas sinalizam que os tribunais vão educar, não destruir carreiras

Argumentos Contra / Preocupações

  • As sanções foram possivelmente brandas demais para realmente dissuadir o uso indevido futuro de IA
  • A decisão focou na negligência do advogado em vez de criar regras específicas sobre IA
  • Pode criar um efeito inibidor, desencorajando o uso benéfico de IA na prática jurídica
  • Não abordou a questão subjacente dos padrões de confiabilidade de ferramentas de IA

Nossas Análises

Lawra Lawra (A Moderada)
Este caso é o alerta que todo advogado precisava. Não significa que você não deve usar IA — significa que você deve verificar tudo o que a IA produz, assim como faria com o primeiro memorando de um advogado júnior. O dever de competência não mudou; as ferramentas é que mudaram.
Lawrena Lawrena (A Cética)
É exatamente por isso que eu venho alertando sobre IA na prática jurídica. Um advogado confiou em uma máquina em vez de seguir a responsabilidade profissional básica. Seis casos falsos. Em um tribunal federal. Se isso não te convence de que a IA é um risco no tribunal, nada vai convencer.
Lawrelai Lawrelai (A Entusiasta)
Olha, um advogado usou uma ferramenta de forma errada e foi pego. Isso não é uma condenação da IA — é uma condenação de pular a verificação. Pilotos não param de usar o piloto automático porque alguém caiu; eles treinam melhor. Este caso deveria nos empurrar para melhores fluxos de trabalho com IA, não para longe da IA.
Carlos Miranda Levy Carlos Miranda Levy (O Curador)
Isso não é uma falha da IA — é uma falha de processo humano. A verdadeira lição não é 'não use IA'. É 'incorpore a verificação no seu fluxo de trabalho'. A IA amplia o que podemos fazer; ela não substitui a necessidade de pensar criticamente. A profissão jurídica deveria responder integrando a alfabetização em IA na formação, não recuando da inovação. Os escritórios que construírem fluxos de trabalho estruturados com IA agora vão superar aqueles que proíbem as ferramentas por medo.

Por Que Este Caso É Importante

Mata v. Avianca é o caso que gerou milhares de cursos de educação continuada jurídica. Quando o advogado Steven Schwartz pediu ao ChatGPT para encontrar jurisprudência de apoio para uma ação de danos pessoais contra a Avianca Airlines, a IA produziu com confiança seis decisões judiciais — nenhuma das quais existia. Schwartz apresentou as citações fabricadas em uma petição em tribunal federal sem verificação.

O Que Aconteceu

O Juiz P. Kevin Castel descobriu os casos inexistentes e determinou que Schwartz e o co-advogado Peter LoDuca apresentassem justificativas. Quando confrontado, Schwartz inicialmente manteve as citações, depois admitiu que havia usado o ChatGPT e “não achava que ele pudesse fabricar casos”. O tribunal considerou essa explicação pouco convincente e impôs sanções.

O Impacto Mais Amplo

Este caso, sozinho, acelerou o acerto de contas da profissão jurídica com a IA generativa. Meses após a decisão, dezenas de tribunais adotaram despachos permanentes exigindo que advogados divulguem o uso de IA. Ordens de advogados do Texas à União Europeia emitiram pareceres éticos. O caso se tornou sinônimo de “verifique o resultado da sua IA”.

Fontes

Explore os Marcos Regulatórios

Os casos não acontecem no vácuo. Explore os marcos regulatórios que moldam o Direito da IA ao redor do mundo.

Pronto para um aprendizado estruturado? Explore o Programa de Aprendizagem →

Comentários

Carregando comentários...

0/2000 Os comentários são moderados antes de serem exibidos.