Non Depositare Output dell'IA Senza Leggere Ogni Parola
Gli avvocati sono personalmente responsabili di ogni parola che depositano presso un tribunale. Il testo generato dall'IA può contenere citazioni inventate, giurisprudenza allucinata e assurdità dal tono sicuro.
Rischio
Sanzioni professionali, responsabilità per negligenza professionale, rigetto della causa, segnalazione alle autorità disciplinari dell'ordine
Esempio Reale
Nel caso Mata v. Avianca, Inc. (S.D.N.Y. 2023), gli avvocati Steven Schwartz e Peter LoDuca depositarono un atto contenente sei citazioni giurisprudenziali interamente inventate generate da ChatGPT. Quando la controparte e il giudice P. Kevin Castel non riuscirono a trovare i casi, gli avvocati raddoppiarono la posta, chiedendo a ChatGPT di confermare che i casi esistessero. Il giudice Castel impose una sanzione di 5.000 dollari a ciascun avvocato, accertando che avevano agito in malafede per non aver verificato l'output dell'IA. Il caso divenne un monito a livello mondiale.
Mitigazione
Leggete ogni parola dell'output generato dall'IA. Verificate ogni citazione rispetto alle fonti primarie — Westlaw, LexisNexis o le banche dati ufficiali dei tribunali. Trattate l'output dell'IA come una prima bozza non verificata di uno stagista inaffidabile, non come un prodotto di lavoro finito.
Capisco, lo so — il punto dell'IA è far risparmiare tempo. Ma 'risparmiare tempo' depositando casi inesistenti è come 'risparmiare denaro' non pagando l'assicurazione per la responsabilità professionale. Non depositereste un atto scritto dal vostro praticante senza leggerlo. Sicuramente non dovreste depositarne uno scritto dal vostro robot senza leggerlo. L'IA non ha un'abilitazione professionale da perdere. Voi sì.
-- Lawra
Commenti
Caricamento commenti...