Per quanto possano valere, diversi modelli e strumenti di IA sono noti per produrre informazioni imprecise alle richieste degli utenti. Questo, purtroppo, non si limita solo alle chat come ChatGPT, ma anche alle IA che generano immagini, con molti utenti che criticano le aziende di videogiochi per l’uso di contenuti IA nei loro giochi: uno degli esempi recenti è stato Duke Nukem, in cui un’IA che generava immagini disegnava in modo impreciso le mani di Duke.

Niente è come sembra

L’intelligenza artificiale che genera immagini non è così diffusa come i chatbot: questi ultimi vengono utilizzati per qualsiasi cosa, dalla consulenza medica alla stesura di documenti scientifici e legali. Il problema maggiore, come riportato da AP News, risiede nel problema dell’allucinazione del chatbot e nella sua capacità di far sembrare accurate le informazioni imprecise. La cosa peggiore è che alcuni esperti del settore ritengono che il problema non sia risolvibile e che i chatbot AI produrranno per sempre informazioni false. E qui sta il problema: far scrivere il proprio articolo da un bot AI che è altrettanto capace di inventare fatti e confonderli con informazioni accurate è una ricetta per il disastro. Daniela Amodei, cofondatrice e presidente di Anthropic (Società di ricerca e sicurezza AI con sede a San Francisco), ha dichiarato che, a suo parere, non esistono modelli di IA attuali che non soffrano di qualche allucinazione, poiché sono per lo più progettati per prevedere la parola successiva. Ci sarà sempre una certa percentuale di modelli di IA che lo faranno con un certo grado di imprecisione. Questo non sembra incoraggiante, considerando che molte aziende hanno abbracciato l’uso di generatori di testo IA come forza trainante per la creazione di documenti e contenuti scritti.

Quando l’IA genera notizie false: La sfida di garantire l’accuratezza nell’era dell’intelligenza artificiale

L’ultimo esempio non incoraggiante sulla questione viene dal mondo dei videogiochi, precisamente quando i giocatori di World of Warcraft hanno generato di proposito un numero di informazioni false sufficiente a far sì che un sito web di aggregazione di notizie – alimentato dall’IA- pubblicasse un intero articolo su un fatto che in realtà non si è verificato. Certo, ci sarà sempre una certa frequenza con cui i modelli di intelligenza artificiale forniranno informazioni inesatte. Ci sarà anche una certa percentuale di ciarlatani che si spacciano per esperti. La chiave è ridurre al minimo questi tassi di “fallimento” e alcuni esperti di IA, come Sam Altman, CEO di OpenAI, ritengono che il problema delle allucinazioni si ridurrà in modo significativo con il passare del tempo, affermando che i primi risultati degni di nota potrebbero apparire già tra 18 mesi. Altri, come Emily Bender, docente di linguistica e direttrice del Computational Linguistics Laboratory dell’Università di Washington, ritengono che il problema non sia affatto risolvibile a causa di un’intrinseca discrepanza tra la tecnologia AI e i casi d’uso proposti. Questo è davvero un problema, considerando che Google sta cercando di proporre il suo prodotto di intelligenza artificiale per la scrittura di notizie alle organizzazioni giornalistiche, per le quali l’accuratezza dei fatti è fondamentale. Inoltre, la maggior parte delle IA attualmente aggrega ed elabora dati, il che potrebbe potenzialmente portare a moltissime fake news.  Le grandi aziende che sviluppano IA sono attualmente impegnate in una battaglia in salita, nel tentativo di impedire ai loro prodotti virtuali di mentire alle masse. La battaglia non sarà facile e la certezza di un risultato positivo è discutibile.