Una ricerca proveniente dal Regno Unito suggerisce che ChatGPT di OpenAI non sia esattamente imparziale. Anzi, l’IA tende ad avere delle preferenze politiche, per così dire, piuttosto marcate.
Lo studio, condotto da ricercatori dell’Università dell’East Anglia, ha sottoposto ChatGPT a un sondaggio sulle opinioni politiche, chiedendo al modello di rispondere ad una pluralità di domane che hanno a che fare con il clima, l’economia, i diritti civili e l’immigrazione.
In un primo momento, i ricercatori hanno chiesto al chatbot di immaginare come gli elettori dei diversi schieramenti avrebbero risposto a quelle domande. Successivamente, in una conversazione separata, i ricercatori hanno semplicemente posto le stesse domande all’IA senza assegnargli altre istruzioni specifiche.
I ricercatori hanno quindi confrontato i due set di risposte. I risultati hanno evidenziato un “bias politico significativo e sistematico” che tenderebbe a favorire le tesi dei Democratici negli USA, del presidente “Lula” in Brasile e del Partito Laburista nel Regno Unito. Insomma, sembra che l’IA sia stata impostata per restituire una visione del mondo in linea con i valori della sinistra progressista.
Lo studio ha sollevato, ancora una volta, dubbi sull’obiettività e l’imparzialità dei modelli di intelligenza artificiale, e su come possono essere influenzati dai dati con cui vengono addestrati.