← Torna a Tutti i Casi
Concluso Ethics

Mata v. Avianca, Inc.

U.S. District Court, Southern District of New York · United States · 2023-06-22 · 22-cv-1461 (PKC)

L'avvocato Steven Schwartz ha utilizzato ChatGPT per redigere una memoria legale e l'ha presentata con sei citazioni giurisprudenziali interamente inventate. Il tribunale ha sanzionato Schwartz e il suo collega per aver presentato precedenti falsi senza verifica.

Dispositivo

Il tribunale ha imposto una sanzione di 5.000 dollari a Schwartz e al co-difensore Peter LoDuca, ritenendo che avessero agito in malafede presentando pronunce giudiziarie inesistenti generate dall'IA e omettendo di verificarle nonostante molteplici opportunità.

Argomenti a Favore / Implicazioni Positive

  • Ha stabilito un chiaro precedente secondo cui la ricerca giuridica generata dall'IA deve essere verificata prima della presentazione
  • Ha allertato la professione legale sui rischi delle allucinazioni dell'IA
  • Ha spinto gli ordini professionali forensi di tutto il mondo a emanare linee guida sull'IA
  • Sanzioni relativamente moderate segnalano che i tribunali intendono educare, non distruggere carriere

Argomenti Contro / Preoccupazioni

  • Le sanzioni erano probabilmente troppo lievi per scoraggiare davvero futuri abusi dell'IA
  • La decisione si è concentrata sulla negligenza dell'avvocato piuttosto che sulla creazione di regole specifiche per l'IA
  • Potrebbe creare un effetto deterrente che scoraggia l'uso benefico dell'IA nella pratica legale
  • Non ha affrontato la questione di fondo degli standard di affidabilità degli strumenti di IA

I Nostri Pareri

Lawra Lawra (La Moderata)
Questo caso è il campanello d'allarme di cui ogni avvocato aveva bisogno. Non significa che non si debba usare l'IA — significa che si deve verificare tutto ciò che l'IA produce, esattamente come si farebbe con il primo memorandum di un praticante. Il dovere di competenza non è cambiato; gli strumenti sì.
Lawrena Lawrena (La Scettica)
Questo è esattamente il motivo per cui mettevo in guardia sull'IA nella pratica legale. Un avvocato si è fidato di una macchina più che della responsabilità professionale elementare. Sei casi falsi. In un tribunale federale. Se questo non vi convince che l'IA è un rischio in tribunale, nulla lo farà.
Lawrelai Lawrelai (L'Entusiasta)
Guardate, un avvocato ha usato male uno strumento ed è stato scoperto. Questo non è un atto d'accusa contro l'IA — è un atto d'accusa contro il saltare la verifica. I piloti non smettono di usare il pilota automatico perché qualcuno si è schiantato; si addestrano meglio. Questo caso dovrebbe spingerci verso flussi di lavoro con l'IA migliori, non lontano dall'IA del tutto.
Carlos Miranda Levy Carlos Miranda Levy (Il Curatore)
Questo non è un fallimento dell'IA — è un fallimento del processo umano. La vera lezione non è 'non usate l'IA'. È 'integrate la verifica nel vostro flusso di lavoro'. L'IA potenzia ciò che possiamo fare; non sostituisce la necessità di pensare criticamente. La professione legale dovrebbe rispondere integrando l'alfabetizzazione sull'IA nella formazione, non ritirandosi dall'innovazione. Gli studi che costruiscono flussi di lavoro strutturati con l'IA oggi supereranno quelli che vietano gli strumenti per paura.

Perché Questo Caso È Importante

Mata v. Avianca è il caso che ha dato il via a migliaia di corsi di formazione continua. Quando l’avvocato Steven Schwartz ha chiesto a ChatGPT di trovare giurisprudenza a supporto di una richiesta di risarcimento per lesioni personali contro Avianca Airlines, l’IA ha prodotto con sicurezza sei pronunce giudiziarie — nessuna delle quali esistente. Schwartz ha presentato le citazioni inventate in una memoria presso un tribunale federale senza alcuna verifica.

Cosa È Successo

Il giudice P. Kevin Castel ha scoperto i casi inesistenti e ha ordinato a Schwartz e al co-difensore Peter LoDuca di giustificarsi. Quando messo di fronte alla questione, Schwartz inizialmente ha confermato le citazioni, poi ha ammesso di aver usato ChatGPT e di “non aver pensato che potesse inventare dei casi”. Il tribunale ha ritenuto questa spiegazione non persuasiva e ha imposto sanzioni.

L’Impatto Più Ampio

Questo caso da solo ha accelerato la resa dei conti della professione legale con l’IA generativa. Nei mesi successivi alla decisione, decine di tribunali hanno adottato ordinanze che richiedono agli avvocati di dichiarare l’uso dell’IA. Gli ordini professionali forensi dal Texas all’Unione Europea hanno emesso pareri deontologici. Il caso è diventato sinonimo di “verificate il vostro output dell’IA”.

Fonti

Esplorate i Quadri Normativi

I casi non avvengono nel vuoto. Esplorate i quadri normativi che plasmano il diritto dell'IA nel mondo — dal Regolamento IA dell'UE alla legislazione emergente in America Latina.

Pronti per un apprendimento strutturato? Esplora il Programma di Apprendimento →

Commenti

Caricamento commenti...

0/2000 I commenti sono moderati prima della pubblicazione.