Con il crescente interesse per i sistemi di intelligenza artificiale generativa (IA) in tutto il mondo, i ricercatori dell’Università del Surrey hanno creato un software in grado di verificare quante informazioni un’IA ha ricavato dal database digitale di un’organizzazione. Il software di verifica del Surrey può essere utilizzato come parte del protocollo di sicurezza online di un’azienda, aiutando un’organizzazione a capire se un’IA ha appreso troppo o addirittura ha avuto accesso a dati sensibili. Il software è anche in grado di identificare se l’IA ha individuato ed è in grado di sfruttare le falle nel codice del software. Ad esempio, in un contesto di gioco online, potrebbe identificare se un’IA ha imparato a vincere sempre a poker online sfruttando un difetto di codifica. Il dottor Solofomampionona Fortunat Rajaona è ricercatore in verifica formale della privacy presso l’Università del Surrey e autore principale dell’articolo. Ha dichiarato: “In molte applicazioni, i sistemi di IA interagiscono tra loro o con gli esseri umani, come le auto a guida autonoma in autostrada o i robot ospedalieri. Scoprire cosa sa un sistema intelligente di dati di IA è un problema continuo per il quale abbiamo impiegato anni per trovare una soluzione funzionante. Il professor Adrian Hilton, direttore dell’Institute for People-Centred AI dell’Università del Surrey, ha dichiarato: “Negli ultimi mesi c’è stata un’enorme ondata di interesse pubblico e industriale per i modelli di IA generativa, alimentata dai progressi dei modelli linguistici di grandi dimensioni come ChatGPT. La creazione di strumenti in grado di verificare le prestazioni delle IA generative è essenziale per sostenerne l’impiego sicuro e responsabile. Questa ricerca è un passo importante verso il mantenimento della privacy e dell’integrità dei dataset utilizzati per l’addestramento”.