Intelligenza artificiale in tribunale: l’errore di un avvocato costa 15.000 dollari

L’uso dell’intelligenza artificiale nel settore legale può essere un’arma a doppio taglio, come dimostra il caso di Rafael Ramirez, un avvocato dell’Indiana che rischia una multa di 15.000 dollari per aver presentato documenti giudiziari con citazioni inesistenti generate dall’IA. L’episodio riaccende il dibattito sull’affidabilità degli strumenti di AI generativa e sulla responsabilità professionale di chi li utilizza.

L’intelligenza artificiale non sostituisce l’intelligenza umana

Il giudice federale Mark J. Dinsmore, nel rapporto inviato alla Corte Distrettuale per il Southern District of Indiana il 21 febbraio 2025, ha ammonito che “l’uso dell’intelligenza artificiale deve essere accompagnato dall’applicazione dell’intelligenza reale”. Ramirez, legale della HooserVac LLC in una causa su un fondo pensione aziendale, ha incluso nei suoi atti riferimenti giuridici che non esistono. Solo dopo che la corte ha tentato invano di verificare le citazioni, è emerso che erano state generate da un’Ai senza alcun controllo umano.

L’errore dell’avvocato: fidarsi ciecamente dell’Ai

Durante un’udienza il 3 gennaio, Ramirez ha ammesso di aver utilizzato strumenti di AI generativa per redigere i documenti, senza verificarne la veridicità. Ha dichiarato di non essere consapevole della possibilità che l’AI producesse riferimenti fittizi, ritenendo le informazioni fornite affidabili. Tuttavia, il giudice ha sottolineato che controllare le citazioni legali è un compito fondamentale per qualsiasi avvocato e che non esistono giustificazioni per non adempiere a questo obbligo.

Sanzioni e precedenti casi di uso scorretto dell’AI

Per ogni documento contenente citazioni errate, il giudice ha proposto una multa di 5.000 dollari, per un totale di 15.000 dollari. Inoltre, Ramirez è stato segnalato per eventuali provvedimenti disciplinari e dovrà certificare di aver informato il CEO di HooserVac dell’errore entro una settimana.

Non è la prima volta che il mondo legale si scontra con l’uso improprio dell’intelligenza artificiale. Nel maggio 2023, due avvocati di New York sono stati multati per aver presentato in tribunale documenti con citazioni inventate da ChatGPT. Più recentemente, nel febbraio 2025, tre legali dello studio Morgan & Morgan sono stati sanzionati per aver incluso riferimenti giuridici inesistenti in una causa contro Walmart.

AI nel settore legale: uno strumento utile, ma con cautela

L’intelligenza artificiale sta rivoluzionando il settore legale, automatizzando la ricerca di precedenti giuridici e la redazione di documenti. Tuttavia, il caso di Ramirez dimostra che affidarsi ciecamente a questi strumenti può avere conseguenze gravi. La verifica umana resta essenziale per garantire l’accuratezza delle informazioni e la professionalità nel lavoro degli avvocati.

Questo episodio sottolinea l’importanza di un uso consapevole dell’IA nel diritto e in altri ambiti professionali. L’intelligenza artificiale può essere un valido supporto, ma non può sostituire il giudizio critico e la responsabilità degli esperti del settore.