Quali sono le sfide che l’umanità dovrà affrontare in futuro? Questa domanda è stata posta da Cosimo Della Santina, professore, e dallo studente di dottorato Francesco Stella della TU Delft, a ChatGPT. La loro intenzione era di rendere ChatGPT non solo un semplice robot, ma un vero e proprio aiuto. Alla fine, hanno deciso di affrontare la sfida dell’approvvigionamento alimentare e, durante una conversazione con ChatGPT, hanno avuto l’idea di creare un robot per la raccolta dei pomodori. I ricercatori hanno seguito tutte le decisioni prese da ChatGPT durante il processo di progettazione. Secondo Stella, i suggerimenti di ChatGPT sono stati particolarmente preziosi nella fase concettuale. “ChatGPT ha ampliato le nostre conoscenze in diverse aree.
Ad esempio, ci ha insegnato quali colture sarebbe stato più conveniente automatizzare dal punto di vista economico“. Ma ChatGPT ha anche dato suggerimenti utili durante l’implementazione: “Dovremmo usare una pinza in silicone o in gomma per evitare di schiacciare i pomodori” e “il modo migliore per guidare il robot è utilizzare un motore Dynamixel“. Il risultato di questa collaborazione tra esseri umani e intelligenza artificiale è stato un braccio robotico molto efficiente in grado di raccogliere i pomodori.
La cooperazione tra gli esseri umani e i Large Language Models
I ricercatori hanno trovato il processo di progettazione collaborativa estremamente positivo e gratificante. Tuttavia, hanno notato che il loro ruolo di ingegneri si è spostato verso compiti più tecnici. Su Nature Machine Intelligence, stanno esplorando i vari livelli di cooperazione tra gli esseri umani e i Large Language Models (LLM), come ChatGPT. In uno scenario estremo, l’intelligenza artificiale fornirebbe tutti gli input per la progettazione del robot e l’essere umano li seguirebbe acriticamente. In questo caso, l’LLM agirebbe come ricercatore e ingegnere, mentre l’essere umano assumerebbe il ruolo di manager, responsabile di specificare gli obiettivi della progettazione.
Tuttavia, un tale scenario estremo non è ancora possibile con gli attuali Large Language Models. E sorge la domanda se sia auspicabile. “Effettivamente, l’output degli LLM potrebbe essere fuorviante se non viene verificato o convalidato. I bot AI sono programmati per generare la risposta ‘più probabile’ a una domanda; quindi, c’è il rischio di disinformazione e pregiudizi nel campo della robotica“, afferma Della Santina. Lavorare con gli LLM solleva anche altre questioni importanti, come il plagio, la tracciabilità e la proprietà intellettuale. Della Santina, Stella e Hughes continueranno a utilizzare il robot per la raccolta dei pomodori nella loro ricerca sulla robotica. Inoltre, stanno continuando a studiare gli LLM per progettare nuovi robot.
In particolare, stanno esaminando come le intelligenze artificiali possano progettare autonomamente i propri corpi. “Una questione aperta per il futuro del nostro campo è come gli LLM possano assistere gli sviluppatori di robot senza limitare la creatività e l’innovazione necessarie per affrontare le sfide del XXI secolo”, conclude Stella.