OpenAI, l’azienda dietro la piattaforma di IA generativa ChatGPT, è stata citata in giudizio per diffamazione dopo che un uomo è stato presumibilmente vittima di una “allucinazione da IA“. Come riportato da Gizmodo, un giornalista ha chiesto al chatbot AI di riassumere The Second Amendment Foundation v. Robert Ferguson, una causa intentata dal gruppo di difesa delle armi contro il procuratore generale Bob Ferguson per le leggi sulle armi dello Stato di Washington. Nella sua risposta, l’intelligenza artificiale avrebbe affermato che un conduttore radiofonico di nome Mark Walters è stato accusato di appropriazione indebita di denaro dalla Second Amendment Foundation, anche se Walters non era affatto coinvolto nel caso. In risposta, Walters ha fatto causa a OpenAI per l’errore di ChatGPT, accusando l’azienda di diffamazione e di aver danneggiato la sua reputazione.
La prima causa contro l’AI e l responsabilità legale dei modelli di intelligenza artificiale
Questa causa è la prima del suo genere e potrebbe determinare il modo in cui il sistema legale considererà questo tipo di cause per diffamazione contro l’intelligenza artificiale generativa in futuro. Tuttavia, Gizmodo ha parlato con un esperto legale che ha affermato che la fondatezza di questo caso particolare è traballante, anche se ciò non significa che non ci saranno cause più forti in futuro. L’affermazione di appropriazione indebita non è l’unica falsità che sarebbe stata fornita da ChatGPT di OpenAI in risposta alla richiesta del giornalista di armi da fuoco, Fred Riehl, sul caso The Second Amendment Foundation contro Robert Ferguson. La piattaforma avrebbe affermato che Walters era il direttore finanziario e il tesoriere della Second Amendment Foundation, cosa che gli ha permesso di sottrarre fondi per “spese personali”, oltre a manipolare “i registri finanziari e gli estratti conto bancari per nascondere le sue attività” e a non “fornire rapporti finanziari accurati e tempestivi”. Come sostiene la causa di Walters, nulla di tutto ciò può essere vero, poiché Walters non è mai stato il direttore finanziario o il tesoriere, né è mai stato alle dipendenze della fondazione.
Le allucinazioni di ChatGPT
La denuncia di 30 pagine della SAF contro Ferguson non menziona affatto Walters, e Walters ha affermato che il modello ChatGPT di OpenAI si è tirato indietro quando gli è stato chiesto di chiarire il ruolo di Walters nella causa. Il modello avrebbe citato un passaggio inesistente della denuncia, sbagliando anche il numero del caso. Riehl, il giornalista che ha chiesto il riassunto del caso a ChatGPT, ha contattato gli avvocati coinvolti nel caso per evitare di sbagliare i fatti e ha lasciato il nome di Walters fuori dalla sua storia finale. Il fondatore di OpenAI, Sam Altman, ha precedentemente dichiarato che le “allucinazioni” di ChatGPT sono un problema su cui si sta lavorando attivamente per migliorare l’accuratezza del modello. Tuttavia, il presunto danno è stato fatto e uno degli avvocati di Walters ha dichiarato che l’errore potrebbe danneggiare la reputazione di Walters, “esponendolo all’odio pubblico, al disprezzo o al ridicolo“.
Quali danni effettivi sono stati arrecati alla reputazione del gioralista?
Gizmodo ha anche consultato il professore di diritto della University of California Los Angeles, Eugene Volokh, sul caso di diffamazione, e sembra che non sia il più forte. Volokh è attualmente autore di una rivista giuridica sulla responsabilità legale dei modelli di intelligenza artificiale e sottolinea che la causa di Walters non mostra quali danni effettivi siano stati arrecati alla sua reputazione. Se Walters volesse ottenere un risarcimento da OpenAI, dovrebbe dimostrare che ChatGPT ha agito con “consapevolezza di falsità o con sconsiderata noncuranza della possibilità di falsità”, il che sarebbe probabilmente difficile da dimostrare, dato che il modello linguistico di grandi dimensioni è solo un’intelligenza artificiale. Tuttavia, non è la prima volta che ChatGPT di OpenAI ha avuto una “allucinazione” e probabilmente non sarà l’ultima. Volokh ha osservato che è certamente possibile che in futuro qualcuno vinca una causa per diffamazione contro l’azienda se riesce a dimostrare di aver perso un compenso monetario o un lavoro a causa di una “allucinazione” prodotta dall’IA.