Usare ChatGPT per provare a vincere una causa in tribunale è una pessima idea

La scelta di usare ChatGPT per scrivere un’istanza si è trasformata in un incubo per gli avvocati di uno studio legale americano. È successo a New York, dove il giudice Kevin Castel si è trovato di fronte ad una situazione mai affrontata nella sua lunga carriera. Letto il documento presentato dagli avvocati, il giudice si è, infatti, immediatamente accorto che qualcosa non andava: era infarcito di citazioni a precedenti sentenze di cui non esisteva alcuna traccia negli annali, forse inventate di sana pianta.

In questi casi, è prassi che il giudice chieda all’avvocato di produrre un secondo documento – una dichiarazione giurata, quello che in gergo si chiama un affidavit – per motivare le sue ragioni. Del resto, magari le sentenze citate esistevano veramente, ma il tribunale non è stato in grado di trovarle; oppure le sentenze non esistevano veramente e allora è bene che l’avvocato spieghi esattamente cosa è andato storto: la differenza tra grave negligenza e malafede è sottile, ma esiste.

L’avvocato in questione non demorde. E produce una descrizione ancora più accurata, allegando diverse citazioni delle sentenze citate in precedenza. Ma anche questa volta il giudice Castel non è convinto. Ad un’ulteriore analisi, risulta che anche la nuova dichiarazione è piena di informazioni completamente inventate. I casi citati dall’avvocato – tra cui  Varghese v China South Airlines Ltd, ma anche George Cornea v. U.S. Attorney General e altre quattro – non esistono. Non sono mai stati discussi in un’aula di un tribunale americano.

A questo punto il giudice perde le staffe e ordina all’avvocato di produrre un secondo affidavit, questa volta spiegando perché il tribunale non lo debba sanzionare e radiare a vita dall’albo. Ed è in questo momento che le cose si fanno ancora più interessanti.

L’avvocato ammette di non sapere se le sentenze esistano o meno, perché aveva interamente delegato la produzione del primo documento ad un collega del suo studio legale. Il secondo avvocato, allora, deposita un ulteriore affidavit ammettendo, con imbarazzo, di aver consultato ChatGPT, l’IA di OpenAI, per scrivere l’istanza. Nella sua testimonianza, l’avvocato in questione – che non è un novellino, ma un veterano con oltre 30 anni di carriera alle spalle – ha spiegato di non aver mai usato ChatGPT prima di allora per curare gli interessi di un suo cliente e che pertanto non aveva idea che l’IA potesse inventarsi di sana pianta leggi e precedenti legali inesistenti.  “Sono estremamente pentito e prometto al tribunale che né io né nessun altro partner del mio studio legale farà affidamento sulle IA in futuro per condurre ricerche legali”, si legge, quindi, nel documento. Il prossimo 2 giugno il tribunale deciderà se sospendere o radiare a vita dall’albo entrambi gli avvocati.

 

 

Claude 3: lanciata la nuova AI di Anthropic
Claude 3: lanciata la nuova AI di Anthropic
Llama 3: Meta ha fissato la data di lancio del modello AI
Llama 3: Meta ha fissato la data di lancio del modello AI
Gemini 1.5 Pro di Google: le differenze con la versione 1.0
Gemini 1.5 Pro di Google: le differenze con la versione 1.0
IKEA Kreativ: sbarca in Italia l’app interattiva del colosso svedese
IKEA Kreativ: sbarca in Italia l’app interattiva del colosso svedese
Intelligenza artificiale nel settore cinematografico: un'opportunità di creatività
Intelligenza artificiale nel settore cinematografico: un'opportunità di creatività
GPT Store di OpenAI: ecco un futuristico marketplace
GPT Store di OpenAI: ecco un futuristico marketplace
Anche la CIA ha il suo "ChatGPT": l'IA aiuterà i funzionari a navigare tra milioni di dossier
Anche la CIA ha il suo "ChatGPT": l'IA aiuterà i funzionari a navigare tra milioni di dossier