L’ultimo esperimento di Google DeepMind, appena pubblicato su Nature Communications, rivoluziona il mondo dell’intelligenza artificiale (IA). Questo progetto, guidato da Edward Hughes, è una pietra miliare in quella che viene definita dai ricercatori stessi come “l’evoluzione e interazione culturale fra gli esseri umani e le macchine”. A differenza dei tradizionali approcci di apprendimento delle macchine, che richiedono tempo e risorse, il team di Google DeepMind ha adottato un metodo innovativo. Il loro sistema di IA apprende imitando, un concetto ispirato alle modalità di apprendimento umane. In particolare, questo approccio riflette il modo in cui i bambini imparano rapidamente nuove abilità attraverso l’imitazione.
Apprendimento per imitazione
Il concetto di apprendimento per imitazione può essere interpretato in due modi: il primo si riferisce alla capacità di un individuo di replicare un atto, appartenente al suo repertorio motorio, dopo averlo osservato da altri; il secondo presuppone che un individuo, osservando un atto altrui, apprenda quel pattern d’azione nuovo arrivando a svolgerlo, tramite la ripetizione, in modo sempre più dettagliato.
Cos’è l’intelligenza?
Nel caso specifico di questa ricerca, non si tratta solo di mero apprendimento ma di “trasmissione culturale”. Infatti, gli autori, nella parte introduttiva dell’articolo pubblicato su Nature, definiscono innanzitutto cosa sia l’intelligenza e come questa generi cultura:
“L’intelligenza può essere definita come la capacità di acquisire nuove conoscenze, abilità e comportamenti in modo efficiente in un’ampia gamma di contesti. Tali conoscenze rappresentano la facoltà di eseguire sequenze di azioni che raggiungono obiettivi in contesti appropriati. L’intelligenza umana dipende in particolare dalla nostra capacità di acquisire conoscenze in modo efficiente da altri esseri umani. Questa conoscenza è conosciuta collettivamente come cultura e il trasferimento della conoscenza da un individuo all’altro è noto come trasmissione culturale. “Quindi, viste queste premesse, l’obiettivo dei ricercatori è stato generare un agente artificialmente intelligente in grado di trasmettere in tempo reale una robusta trasmissione culturale da parte di co-protagonisti umani in una simulazione fisica 3D.
Il progresso verso l’interazione sociale e l’apprendimento efficiente
In quest’ottica, il sistema è stato addestrato in un uno spazio di lavoro fisico simulato in 3D chiamato GoalCycle3D, dove osserva e imita una varietà di soggetti, chiamati tecnicamente agent (agenti), sia umani che non umani. In altre parole, l’IA ha appreso osservando sia esseri umani che altri sistemi di IA.
Dopo l’addestramento, l’IA è stata in grado di riconoscere e imitare gli agenti più esperti, apprendendo così in modo efficiente e rapido. Nel video l’agente segnalato (blu) imita un umano (rosso) in un compito precedentemente non visto e ricorda il percorso corretto dopo che l’umano si è ritirato. Antonio Frisoli, docente di Robotica alla Scuola Superiore Sant’Anna di Pisa, sottolinea l’importanza di questo sviluppo all’ANSA. Questo progresso consente all’IA di “socializzare con altri agenti”, permettendo così a futuri robot sociali e a entità virtuali di agire in ambienti digitali in modo più naturale.
La ricerca di DeepMind è importante anche per la Privacy e per l’economia degli algoritmi
Frisoli, inoltre, spiega che sono stati soddisfatti tutti i fattori chiave nel contesto dell’apprendimento automatico. Innanzitutto, la capacità del sistema di memorizzare informazioni utili, la capacità di concentrarsi non solo sul compito da imparare, ma sulla presenza di altri agenti ai quali fare riferimento per affinare l’apprendimento, in modo sempre più dettagliato. In prospettiva, un altro elemento importante è la quantità decisamente inferiore di dati che la macchina ha bisogno di conoscere per interagire. Questo implica, quindi, anche una maggiore privacy. Vale a dire, spiega Frisoli, che “per apprendere dal comportamento di altri, questo agente non ha la necessità di accedere a una grande quantità di dati e, riducendo il numero di informazioni di cui ha bisogno, riduce anche il rischio di violare la privacy“. È un vantaggio per gli utenti, ma soprattutto “un vantaggio economico per chi produce questi algoritmi, che attualmente hanno bisogno di una grande quantità di dati per funzionare, il che ha un costo“.